15-03-2018

Misverstanden over AI hinderen zinvolle, zorgvuldige en betrouwbare toepassing

Den Haag, 15 maart 2018 – ECP, moderator Daniël Frijters, verwelkomt de aanwezigen bij de ECP deelnemersspecial over het ontrafelen van misvattingen en dilemma’s rondom de toepassing van AI-technologie. Hij concludeert dat de maatschappelijke impact van Artificial Intelligence een belangrijk en urgent thema is geworden heden ten dage. Nu zelfrijdende auto’s, robotrechters en zorgrobots regelmatig het nieuws halen, komen ook bredere, onderliggende maatschappelijke vragen aan de orde: de gevolgen voor werkgelegenheid, economische machtsverhoudingen en ethische en juridische aspecten (zoals privacy, autonomie, transparantie en het bewaken van grondrechten) komen prominent naar voren. Het is dan ook essentieel om tijdig de juiste dialoog te voeren hoe met toepassingen van AI om te gaan, zodat enerzijds zakelijke kansen en technische mogelijkheden worden benut en anderzijds rekening te houden met juridische en ethische eisen. Deze middag leerde ons dat er wel degelijk manieren zijn om gecontroleerd en betrouwbaar met AI-toepassingen en data in domeinen te innoveren.  

Wat zijn eigenlijk de huidige misverstanden en dilemma’s rondom het thema AI?

Bart van der Mark van Cognizant ging hier uitvoerig op in. Allereerst betreft dit het leren omgaan met de onvoorspelbaarheid van zelflerende systemen. We zijn gewend aan IT-toepassingen met voorspelbaar gedrag. Zelflerende systemen presteren in afgebakende domeinen beter dan mensen, omdat ze onvoorspelbaar zijn: ze worden niet gehinderd door menselijke strategieën, cultuur, gewoontes en best-practices. Maar – en dat is de keerzijde – ook niet door ethische overwegingen. Juist door die onvoorspelbaarheid zijn AI-systemen soms beter en efficiënter dan mensen, maar zorgen ze ook voor onzekerheid. In de tweede plaats is het belangrijk de mogelijkheden van AI in perspectief te zetten. Op dit moment zien we Artificial Narrow Intelligence (ANI), waarbij machines op een afgebakend toepassingsgebied beter zijn dan mensen. Vaak is het de mens-machine samenwerking die echt leidt tot betere resultaten. Waar de publieke discussie echter vaak over gaat is Artificial General Intelligence (AGI): kunstmatige intelligentie die in staat is elk probleem te adresseren. De tijdshorizon voor General AI is decennia: zo ver is het nog lang niet. Ookal hebben we te maken met beperkte vormen van AI, toch tekenen zich een aantal bredere dilemma’s af. Veel repetitief en rule-based werk zal verdwijnen. Het beroep van accountants, advocaten en artsen, maar ook chauffeurs en veel huishoudelijk werk zal ingrijpend veranderen. Wat betekent dat voor opleidingen en werkgelegenheid? Een vierde veelgehoord, dilemma is machtsconcentratie: AI leert van data. De angst is dat data in handen komen van enkele partijen en dat degenen die de data hebben gegenereerd er geen zeggenschap meer over hebben. Enkele partijen kunnen daardoor steeds sterkere diensten aanbieden en bouwen een monopolie op. Transparantie is een vijfde dilemma: dienstverleners hebben belang bij bescherming van hun intellectueel eigendom. Het publiek heeft belang bij inzage in werking van systemen en de impact. Autonome systemen lopen aan tegen ethische grenzen. Waarbij de vraag is: zijn mensen in zulke situaties dan wél in staat ethisch te handelen, kunnen we de ethische kaders schrijven voor dit soort systemen? Stellen we niet hogere eisen aan AI dan aan mensen? Aandacht voor cybersecurity en veiligheid krijgen een andere urgentie: wat zijn onze opties nog wanneer autonome systemen worden gehackt en geherprogrammeerd door hun omgeving. De zelf-lerende twitter-robot van Microsoft, Tay, was daar in 2016 een voorbeeld van: die leerde van de omgeving racistische uitspraken te doen.  Een laatste dilemma is funelling: informatie wordt door systemen zo gefilterd  en veranderd dat het beeld van de werkelijkheid, maar ook de wensen, prioriteiten en keuzes die mensen maken, ongemerkt worden beïnvloed. De actuele discussie over nepnieuws en de verslavende werking van sociale media en mobiele telefoons raakt dit probleem. Duidelijk kwam het beeld naar voren dat de maatschappij én de AI-industrie belang hebben bij een zorgvuldige omgang met deze dilemma’s. Niemand heeft belang bij het creëren van een monster, dat leidt tot grote maatschappelijke en politieke onrust. Initiatieven en de waarschuwingen van Elon Musk, Amazon, Google en IBM rond open AI illustreren dit. Maar ook de recente reactie van Facebook en Google op onrust rond nepnieuws en de impact van social media laten zien dat reactie van de samenleving van invloed is op ontwikkeling van AI-technologie. Het gesprek over AI en de maatschappelijke impact is daarom van groot belang, voor de samenleving, maar ook voor de ontwikkelaars van de technologie en diegenen die het toepassen.  

Overwegingen bij toepassing van AI bij juridische systemen

Art Ligthart (Lead Architect, CSSI) en Ian Fitzpatrick (Jibes Data Analytics) lieten zien welke waarde de toepassing van AI-systemen kan hebben in het juridische domein. Wetsteksten lenen zich immers goed voor AI (door hun structuur en specialisten kunnen goed de correctheid van antwoorden controleren).  In een zeer beperkte pilot waarin een AI-systeem door de experts zelf werd getraind bleken al goede resultaten bereikt te kunnen worden met het zoeken van relevante wet- en regelgeving bij een casus. De ervaringen werden opnieuw gebruikt in een chatbot om de zeer complexe mestwetgeving toegankelijk te maken voor leken. In een pilot werd AI ingezet om eenvoudige -in natuurlijke taal gestelde- vragen te leren beantwoorden. De chatbot bleek aantrekkelijk voor boeren, hun adviseurs maar ook voor betrokken ambtenaren die nu meer tijd kregen om complexe vragen te beantwoorden. In de discussie met het publiek kwam naar voren dat juridische AI-systemen, maar ook voorgangers zoals rule-based systemen die we al enige jaren gebruiken bij het toepassen van regelgeving, al snel raken aan de fundamenten van de rechtsstaat. Wetgeving is vaak inconsistent en onduidelijk en er zijn bij uitvoering vaak verschillende partijen betrokken: het zijn de checks en balances die voorkomen dat nieuwe wetgeving de samenleving ontwricht, of ontwikkelingen ten onrechte blokkeert. Als AI-systemen een rol gaan spelen in wetgeving, verandert dan dit samenspel van burger, bedrijf, politiek en overheid? In de discussie werd gewezen op de recente publicaties “de digitale kooi” van de Kafka-brigade en het proefschrift van Marlies van Eck (“Geautomatiseerde ketenbesluiten en rechtsbescherming“, Tilburg, 2018), die illustreren dat onvoldoende aandacht voor de (uit)werking van AI-systemen kan leiden tot onvoldoende rechtsbescherming.  

Een handreiking voor Impact Assessment bij het toepassen van AI

Kees Stuurman, hoogleraar en partner bij van Doorne Advocaten, is voorzitter van een ECP-werkgroep die een handreiking Autonome Intelligente Systemen ontwikkelt. De eerste handreiking dateert van 2006: door de technische ontwikkelingen is deze inmiddels achterhaald. Het doel van deze handreiking is dat bij het inzetten van AI-systemen in een vroeg stadium al de relevante juridische, organisatorische en maatschappelijke vragen worden gesteld. De opzet van de gedragscode wordt vergelijkbaar met die van de Privacy Impact Assessment, die in het kader van de AVG vaak wordt uitgevoerd: het invullen van een impact assessment zorgt er voor dat de betrokkenen aandacht besteden aan de gevolgen voor de (grond)rechten en verplichtingen van eindgebruikers, de organisatie die het systeem gaat aanbieden en de ontwerper/producent, al bij het ontwerp van het systeem. In een volgende ECP deelnemersspecial over AI in Q2 van 2018 zullen de eerste contouren van de Impact Assessment worden gepresenteerd en worden besproken.  

Paneldiscussie: aandachtspunten in een evenwichtige inbedding van AI

In de paneldiscussie werd de rol van overheid, onderwijs en politiek rond een evenwichtige inbedding van AI aan de orde gesteld. Kennis over de AI-systemen die we nu al kennen, over wat ze wel en niet kunnen en hun betekenis voor organisatie en samenleving is van groot belang om AI op een goede manier toe te passen. Deze kennis is vaak niet aanwezig bij organisaties die AI inzetten: ook de producenten hebben groot belang dat die aandacht voor deze aspecten er komt. De komst van AI doet zich niet voor als een revolutie. AI maakt steeds vaker deel uit van allerlei systemen: bij kleine beetjes krijgt het een rol. Organisaties die AI toepassen moeten daarom weten hoe een systeem tot beslissingen komt, welke vertekeningen in beslissingen kunnen zitten en wat de sterke kanten van het systeem zijn: die kennis is nodig om systemen goed in te kunnen zetten. Dat geldt zeker voor de overheid: waar AI-systemen, zonder een goede analyse van de werking, de rechtszekerheid van burgers kunnen aantasten. Het is bijvoorbeeld belangrijk om te weten dat veel systemen worden gevoed met historische data, en dat die data allerlei vertekeningen in zich bergen: vaak zonder dat we tevoren weten wat de impact van die vertekening is. Veel van de vraagstukken die het Rathenau noemt in de publicatie “Opwaarderen, borgen van publieke waarden in de informatiesamenleving”, (Rathenau, Den Haag, 2017), worden nog niet besproken in organisaties die AI toepassen. Dat is een belangrijk gemis: het gesprek over de impact van AI moet eerst binnen organisaties worden opgestart. We krijgen een steeds beter beeld van de verschillende kanten van AI en de vraagstukken daar om heen. Doel moet zijn dat AI-systemen doen waar wij behoefte aan hebben. Misvattingen over die systemen en hun impact, staan een goede inbedding in de weg. Klik hier voor de presentaties van de bijeenkomst.