30-10-2025
Op donderdag 30 oktober vond de conferentie ‘Waardengedreven Dialogen – Agentic AI: De volgende stap in AI’ plaats onder leiding van moderator Daniël Tijink (ECP). De conferentie werd georganiseerd door ECP | Platform voor de InformatieSamenleving en het ministerie van Binnenlandse Zaken en Koninkrijksrelaties. Centraal stonden drie sessies Begeleidingsethiek rondom het thema Agentic AI, een technologie die steeds zelfstandiger wordt en daarmee belangrijke ethische vragen oproept.
Agentic AI onderscheidt zich van traditionele AI door zijn mogelijkheid tot zelfstandigheid. Deze systemen kunnen taken ontvangen, gevolgen overzien en beslissingen nemen zonder directe menselijke tussenkomst. De technologie ontwikkelt zich in hoog tempo en wordt al in diverse sectoren toegepast. Denk hierbij aan de financiële sector, inkoop bij overheid en human resources. Tijdens de conferentie werden de uitkomsten van drie begeleidingsethiek-sessies besproken en werd nagedacht en gesproken over mogelijke toekomstscenario’s.
Plenaire opening: De urgentie van waardegedreven dialoog – Mark Vermeer
De conferentie begon met een welkom door Daniël Tijink, waarna Mark Vermeer, directeur digitale overheid van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties, het woord overnam. Hij benadrukte dat we aan de vooravond staan van belangrijke maatschappelijke veranderingen door de toenemende zelfstandigheid van digitale technologieën. “Hoe ziet de toekomst eruit? Daar gaan we vandaag over in gesprek.” aldus Mark.
Mark schetste hoe technologische ontwikkelingen in een stroomversnelling zijn geraakt en beter, sneller en preciezer worden. Dit leidt tot fundamentele veranderingen. Er zijn veel kansen, zoals eerlijkere werving of efficiëntere inkoopprocessen, maar ook risico’s in werking en doel van deze systemen. Als voorbeeld noemde hij Albanië, waar als eerste een AI-minister is aangesteld voor aanbestedingen tegen corruptie. Dit roept vragen op: Wat als het algoritme wordt gemanipuleerd? “Over die vragen moeten we nadenken.” benadrukte Mark. TNO speelt hier al op in door, samen met de overheid, te werken aan tech forecasts. Hiermee kijken ze welke technologieën in opkomst zijn. Mark sloot af: “We kunnen de toekomst niet voorspellen, maar ontwikkelingen komen snel. Samen bepalen we hoe we met nieuwe technologieën willen leven.”
De volgende stap in AI – Interview Joop Snijder en Sophie van Baalen door Judith Blijden
Judith Blijden (senior adviseur bij Hooghiemstra & Partners) interviewde Joop Snijder (auteur van Doeltreffend met Ai Agents) en Sophie van Baalen (senior scientist digital society bij TNO) over de betekenis en impact van Agentic AI.
Sophie legde uit dat Agentic AI de snelst groeiende technologie is met de meeste maatschappelijke impact. Maar wat is het precies? Het is een technologie die zelfstandig taken kan uitvoeren en aanpassen. “Het denkt mee, in plaats van alleen een voorgeschreven taak uit te voeren.” Bestaande agents volgen vaste patronen, terwijl Agentic AI adaptief is en complexe taken kan uitvoeren.
Joop nuanceerde dit beeld vanuit de praktijk. Er wordt meer over deze technologie gesproken dan dat deze daadwerkelijk wordt geïmplementeerd. Wel was hij het eens met Sophie dat de technologie in opkomst is. Hij onderscheidde drie typen: adaptieve agents, workflows met vaste stappen en simpele prompts. Als voorbeeld noemde hij een agent die gasten zoekt voor podcasts. “De agent krijgt de opdracht ‘zoek interessante gasten’, bedenkt een strategie en past die aan. Na een maand had de agent tien gasten gevonden die ik niet in mijn netwerk had.”
Sophie benadrukte dat Agentic AI effect heeft op publieke waarden. Het kan bijdragen aan inclusie, maar ook mensen buitensluiten. “Grip is belangrijk. Je moet expliciet kiezen.” Maar hoe zorg je dan voor inclusie? Joop gaf aan dat je een ethisch kader nodig hebt. “Een agent is een wilde stier die je in bedwang moet houden. Je moet nadenken welke vangrails nodig zijn.” Hij adviseerde om vanuit verschillende hoeken, ethisch, juridisch, governance, naar het vraagstuk te kijken.
Tot slot deelden ze hun toekomstverwachtingen. Sophie schetste Agentic AI die samenwerkt als collega, zoals een chirurg die AI gebruikt tijdens operaties. Joop hoopte dat de focus niet alleen op efficiëntie blijft liggen: “Het moet mensen ondersteunen;meer rust en tijd geven.”
De Aanpak Begeleidingsethiek – Daniël Tijink
Na het interview nam Daniël Tijink het woord over en lichtte toe hoe de Aanpak Begeleidingsethiek is toegepast op de cases rondom Agentic AI. Deze aanpak brengt mensen met verschillende achtergronden samen. In een workshop doorlopen ze drie fases. Eerst wordt de casus toegelicht: hoe werkt het, wat is de context? Daarna volgt de dialoogfase waarin gekeken wordt wie er allemaal met de technologie te maken hebben. Samen benoemen zij positieve en negatieve effecten en de waarden die daarachter zitten. In de derde fase worden handelingsopties opgesteld voor techniek, omgeving en gedrag.
Deze aanpak is toegepast op drie concrete cases. Sophie van Eck (ECP) lichtte deze cases samen met de casushouders toe, waarbij de toepassing van Agentic AI in de praktijk centraal stond. De technologie is verkend bij CM.com (recruitment), IBANXS & DevRev (financiële dienstverlening) en CGI (publieke inkoop). De sessies vormden de brug tussen praktijkervaringen en de daaropvolgende scenariobespreking.
Casus in de praktijk
Casus ‘AI-agent in recruitment’ – CM.com
Steven Trienen van CM.com lichtte toe hoe het platform Halo klanten helpt zelf AI Agents te bouwen. Het bedrijf ontwikkelde een recruitment-agent die kandidaten begeleidt door het sollicitatieproces. De agent is altijd beschikbaar, informeert en adviseert, kan gesprekken plannen en zelfs deelnemen aan gesprekken.
Uit het publiek kwam de vraag hoe je agents traint. Olaf Wallaart, Data Scientst bij CM.com sprong het podium op en verduidelijkte dat ze de large language models niet zelf trainen, maar wel sturen door prompting. “Onze opdracht is ervoor zorgen dat hallucinaties niet gebeuren. Wij testen dat intern.”
Sophie van Eck (ECP) vroeg het publiek via Mentimeter welke handelingsopties zij zagen bij deze casus. Een AP-medewerker adviseerde ethische kaders te bekijken. Anderen benadrukten dat persoonlijk contact altijd mogelijk moet blijven. Steven beaamde dit: “De technologie is extra voor mensen die nog erg zoekend zijn. Persoonlijk contact blijft altijd.”
Casus ‘AI-agent in financiële dienstverlening’ – ibanXS & DevRev
Hans Vermeijs (IBANXS) en Sunil Dutt (DevRev) bespraken hun werk in open banking en dataverwerking. Ze lichtten toe dat ze zich vooral bezighouden met de dataverwerking, niet met de financiële data zelf. Als voorbeeld noemde Hans dat wanneer een bank onderhoud heeft, zij dat direct zien en actie kunnen ondernemen.
Uit het publiek kwam de vraag hoe de architectuur werkt. Sunil legde uit dat je alle data inzichtelijk en gestructureerd moet maken en alle permissies moet identificeren. Stap één was alle connectors bouwen. De tweede stap was de kennis verzamelen, zodat AI naar een specifieke architectuur kan luisteren. “Dit gaat verder dan enkele large language models. Wij werken met een knowledge graph.”
Hans sloot af en benadrukte de meerwaarde van de sessie begeleidingsethiek “We zaten met verschillende disciplines aan tafel. Je kijkt vaak vanuit je eigen domein, dit gaf een breder perspectief. Dit was erg waardevol.”
Casus ‘AI-agent bij publieke inkoop’ – CGI
Wouter van der Harg (CGI) sprak over AI Agents in de publieke inkoop. Hij lichtte een case toe: een slimme inkoop- en contractassistent. De agent moet wet- en regelgeving, aanbestedingen en leveranciersdata scannen, advies geven, signalen afgeven en conceptteksten maken in de dagelijkse workflow van de medewerker. De mens blijft echter in-the-loop. Voor CGI is het belangrijk dat de flow transparant blijft voor de medewerker, zodat deze begrijpt wat de AI doet en kan bijsturen waar nodig. “Zo kan je het beste schakelen”, aldus Wouter.
Toekomstscenario’s – Marleen van Leengoed
Marleen van Leengoed zette de uitkomsten van de drie cases om in toekomstscenario’s. Volgens Marleen is het belangrijk om scenario’s voor te stellen waarin we kunnen terechtkomen, om ons daarop voor te bereiden. “Hoe zou de wereld eruit kunnen zien morgen, in 2030 of 2035? Er zijn veel ontwikkelingen en onzekerheden.” De drie cases dienden als input voor de scenario’s. In de Begeleidingsethiek sessies zijn alle betrokkenen gesproken en hun perspectieven gebundeld, wat een breed beeld opleverde. Daaruit kwamen waarden naar voren, zoals werkgeluk, kwaliteit, efficiëntie, verantwoordelijkheid en arbeidsverdeling tussen mens en AI.
Deze vormden de basis voor vier scenario’s:
Scenario 1: Stevige stapjes – Gedreven door bedrijfsleven met focus op betrouwbare AI. Beweging gaat langzamer maar met zekere stappen.
Scenario 2: Iedereen zijn eigen AI-agent – Enkele grote spelers domineren met veel laagrisicoetoepassingen. Risico op automation bias.
Scenario 3: Goede voorbereiding is het halve werk – Ketens van AI werken samen. Veel controlemechanismen en regelgeving remmen, maar zorgen voor effectieve inzet.
Scenario 4: Continue maatschappelijke aanpassing – AI-agents vormen complex netwerk dat transparant moet zijn. Bedrijven zijn verplicht opening van zaken te geven.
Na de uitleg gingen aanwezigen uiteen in break-out sessies om de scenario’s te bespreken. De uitkomst van deze sessies en meer informatie over de scenario’s kunt u vinden in het e-magazine van dit traject welke wordt uitgestuurd.
Panelgesprek: reflectie en toekomst
Na de break-out sessies keerden deelnemers terug. In een panelgesprek met Sophie van Baalen (TNO), Wouter van der Harg (CGI), Hans Vermeijs (IBANXS) en Martijn Bekking (Platform AI & Overheid) werd gezamenlijk gereflecteerd op de scenario’s.
Uit de break-out sessies kwamen diverse inzichten naar voren. Zo werden uitdagingen gezien rondom digitale geletterdheid. Een groep vroeg zich af of we de samenleving echt zó geletterd kunnen krijgen en dacht dat misschien grotere spelers meer invloed krijgen, waardoor we een bepaalde richting op worden geduwd. Bij het wildgroei-scenario ontstond discussie of we alles vooraf kunnen inkaderen: ”Ontwikkelingen gaan vaak sneller dan de juridische kaders.”
Sophie benadrukte dat werk meer is dan taken afhandelen. “We werken om mensen te ontmoeten, voor zingeving. Gun iedereen om samen te kijken: Wat willen we afstaan? Kijk niet alleen naar wat we besparen, maar wat het met mensen doet.” Ze stelde voor om pilots op te zetten om te ervaren hoe bepaalde scenario’s eruitzien. Martijn haakte hierop in en lichtte toe hoe de overheid omgaat met deze nieuwe ontwikkeling. Zij kijken hoe AI op een goede manier kan landen. “Dat is best complex. Bedrijven en overheid hebben richtlijnen nodig. We zoeken naar een manier om het samen te doen, dus niet op 100 verschillende plekken een pilot draaien. We moeten kennis en kunde samenvoegen.” Hij gaf aan dat de overheid wel voorzichtig is en dat het spannend is om te durven testen.
Daniël vroeg Wouter over duurzaamheid en of AI duurzamer kan. Wouter legde uit dat modellen zo efficiënt mogelijk moeten draaien omdat dat minder geld kost “Er zijn kleine large language modellen die iets kunnen verstaan en omzetten in tekst. Die kunnen op lokale machines draaien en werken zelfs op de accuduur van je laptop. De energiezuinigheid van modellen is, zeker nadat ze getraind zijn, vele malen minder dan de perceptie.” Wouter verwacht dat, ondanks dat we veel meer AI gaan gebruiken, energie dus niet de bottleneck gaat zijn. Uit het publiek kwamen vragen over klimaatimpact, of we ontwikkelingen bij kunnen houden en hoe je gepolariseerde gesprekken aangaat.
Het panelgesprek sloot af met de vraag wat voor een buikpijngevoel zorgt. Martijn gaf aan wakker te liggen van mensen die magie verwachten wanneer ze met AI werken. Hans zag risico’s bij controleerbaarheid. Sophie kreeg buikpijn wanneer mensen zich zelf moeten aanpassen om AI te gebruiken. “Wouter zag moeilijkheden op het moment wanneer systemen niet efficiënt draaien en er AI wordt gebruikt, waardoor werk wegvalt “Hoe reorganiseer je het bedrijf en specifiek de de mindset van mensen?”
Voor meer informatie over de volledige verslagen van de sessies begeleidingsethiek zie www.begeleidingsethiek.nl
