Omgaan met kansen en uitdagingen van Artificial Intelligence: vroegtijdig leren balanceren tussen, controleren en anticiperen. Op 26 oktober organiseerde ECP een bijeenkomst speciaal voor haar deelnemers over de kansen en uitdagingen met artificial intelligence. Lees hier het verslag van deze enerverende middag. Daniël Frijters (ECP) heet de aanwezigen welkom en schetst hoe technische ontwikkelingen de afgelopen 20 jaar in steeds sneller tempo een plaats krijgen in de samenleving. Artificiële Intelligentie lijkt nu bezig aan zo’n opmars. Een centrale vraag deze middag is wat bedrijven, politici, bestuurders en eindgebruikers moeten weten en doen om deze technieken een kansrijke en betrouwbare plaats te geven in de samenleving; voor mens, maatschappij en economie. Leon Kester van TNO schetst drie verschillende vormen van AI, die vaak worden verward: systemen die kunnen redeneren, die kunnen leren en systemen die doelen nastreven (en zich daarbij van hun eigen mogelijkheden en beperkingen bewust moeten zijn). Systemen die zich van zichzelf bewust zijn, zijn er nog nauwelijks, maar bepalen vaak wel het beeld van en de discussie over Artificiële Intelligentie. Dagelijks werken we al met systemen die kunnen redeneren zoals algoritmes die worden gebruikt in marketing online. En systemen die kunnen leren zijn aan een opmars bezig: operatie- en zorgrobots en zelfrijdende auto’s. Leon bepleit dat we (organisaties die AI toepassen, politiek en bestuur) het waarden-element in allerlei AI-toepassingen moeten leren te herkennen: we moeten onderscheid leren maken tussen de techniek (en de algoritmen) en de ethische kaders waarbinnen deze systemen opereren. De technische kant is de verantwoordelijkheid van bedrijven, maar de waardenkant ligt bij de organisaties die AI toepassen, politiek, bestuur en de eindgebruikers. Wat daarbij steeds weer duidelijk wordt, is dat organisaties die AI gebruiken, de neiging hebben om de beslissing over de ethische kaders bij de maker van de systemen te leggen. De maker kan vrijwel ieder normenkader kan inbouwen, zo lang het binnen de wettelijke kaders past in de huidige situatie. Echter is het de gebruiker die door de manier van toepassen en het instellen van parameters zelf de kaders vorm geeft. In de discussie over ethische keuzes gaat het vaak over de zelfsturende auto. Maar, zoals de presentatie van SAP – Serge Segboer – liet zien: ook de lerende systemen in de HRM systemen van SAP, raken al snel aan ethische vragen, die niet de fabrikant kan beantwoorden, maar de organisatie die het systeem gebruikt. Serge illustreerde hoe zelflerende algoritmen kunnen helpen om sneller en beter sollicitanten te selecteren. Hoe een organisatie die ondersteuning gebruikt kan in hoge mate bepalen of een organisatie inbreuk maakt op belangrijke ethische waarden en die wettelijk vaak zijn vastgelegd. In de discussie komt naar voren, dat ethici en juristen ons wel helpen kernwaarden te formuleren, maar ons geen methodiek bieden om die waarden te vertalen naar concrete instellingen en de manier waarop we systemen toepassen. En ook al maken mensen dagelijks ethische keuzes, het expliciet maken van waarden is ook een nieuw domein voor hen: ethische keuzes zijn vaak op intuïtie gebaseerd en mensen zijn zelden in staat expliciet te maken hoe ze complexe en vaak tegenstrijdige normen en waarden tegen elkaar afwegen. Om AI goed toe te kunnen passen moeten die waarden en die afwegingsprocessen geëxpliciteerd worden. Belangrijke uitdaging is daarvoor methodieken te ontwikkelen: het onderwerp van onderzoek voor Leon. Gedurende de middag komt het waardenaspect van AI, maar ook van Big Data toepassingen en zelflerende en beslissingsondersteunende systemen, steeds weer terug. De rol van de overheid (in het specifiek toezicht en wet-en regelgevers) en het bedrijfsleven komt ter sprake. Maar ook de ethische kaders waarbinnen overheden zelf AI kunnen toepassen en de rol van de burger Marcel Veening van de Secure Software Alliance, dat startups helpt in de regio Apeldoorn te innoveren met ICT-innovaties, benadrukt hoe belangrijk het duiden en vinden van goede oplossingen voor deze discussie is, om te voorkomen dat we AI in kaders duwen die innovatie en nuttige toepassingen in de weg staan. En om te voorkomen dat belangrijke maatschappelijke waarden onder druk komen te staan. Het ontwikkelen van deze kaders helpt het Ministerie van EZK om AI-industrie naar Nederland en Europa te halen: ze bieden zekerheid aan bedrijven die deze systemen ontwikkelen, aan welke eisen ze moeten voldoen. Eric van Pelt en Sjoerd Habing van de NETHERLANDS FOREIGN INVESTMENT AGENCY laten zien welke organisaties en samenwerkingsverbanden zich al bezig houden met AI-toepassingen in dit kader. Daniël sluit de middag af met een oproep aan de aanwezigen hun ideeën over drempels en mogelijkheden voor samenwerking met ECP te bespreken en wellicht rond dit onderwerp een platform te vormen om met elkaar te leren antwoorden te creëren. Immers, ‘alleen ga je sneller, samen kom je verder’ zeker omtrent onderwerpen rondom de impact van ICT-innovatie in onze samenleving.
14-11-2017