Transparantie en uitlegbaarheid van AI: voorbeelden in sectoren

Tijdens de bijeenkomst zijn er onder andere sprekers van IBM, TNO, Human and Tech Institute en Pacmed en wordt ingegaan op voorbeelden uit de zorg, bancaire sector, overheid en agro-food. Er zijn nog een aantal plekken beschikbaar dus meld u nog gauw aan!   Artificial Intelligence (AI) wordt steeds vaker ingezet, maar is niet per definitie neutraal en kan grote gevolgen voor mensen hebben. Daarom is er steeds meer behoefte aan transparantie en uitlegbaarheid van AI. Wat betekent transparant zijn in de uitvoering? Wie moet wat uitleggen als algoritmes keuzes maken? En wat zijn de (on)mogelijkheden van volledige transparantie? Op donderdag 27 juni 2019  tijdens de ECP Deelnemersbijeenkomst Transparantie en uitlegbaarheid van AI: voorbeelden in sectoren nemen wij u mee in de oplossingen die tech-bedrijven hiervoor hebben bedacht, de voor- en nadelen van transparantie en uitlegbaarheid van AI; hoe datadelen in sectoren nu al gebeurt en hoe rondom deze begrippen juridisch-ethisch de goede afwegingen kunnen worden gemaakt.

13.30 – 14.00 uur Inloop
14.00 – 14.10 uur Welkom, intro AI Impact Assessment, Daniël Frijters ECP (moderator)
14.10 – 14.35 uur Tools Fairness & Explainability en praktijkvoorbeelden, Damiaan Zwietering IBM
14.35 – 15.00 uur Veilig en fair data delen in de praktijk, Cor Veenman TNO
15.00 – 15.25 uur De praktijk van ethiek, business-case en Impact Assessment, Louis Huyskes Human and Tech Institute
15.25 – 15.50 uur Responsible AI: randvoorwaarden juridisch en skills, Katja van Kranenburg CMS
15.50 – 16.15 uur Uitlegbaarheid van machine learning algoritmen voor persoonlijke en precieze zorg, David Ruhe Pacmed
16.15 – 17.15 uur Afsluiting en borrel

ECP Deelnemersbijeenkomst Transparantie en uitlegbaarheid van AI: voorbeelden in sectoren Datum: Donderdag 27 juni 2019 Tijdstip: 13.30-16.30 uur met aansluitend een borrel Locatie: 7AM, Buitenhof 47 te Den Haag: https://www.7am.nl/contact/#bereikbaarheid Aanmelden Deelname aan deze bijeenkomst is kosteloos. U kunt zich hieronder aanmelden. Na aanmelding rekenen wij op uw komst. Achtergrondinformatie Transparantie over de werking van een AI-toepassing geeft individuen de mogelijkheid tot inzicht in het effect van de toepassing. Welke handelingsvrijheid en beslissingsruimte heeft het individu? Transparantie betekent ook dat actoren wetenschap hebben van het feit dat AI toegepast wordt, hoe besluitvorming tot stand komt en wat de consequenties hiervan kunnen zijn. De wenselijkheid en verschaffing van transparantie kan in de praktijk verschillende dingen betekenen. Het kan betekenen dat er toegang is tot de broncode van gebruikte algoritmes en analysemethoden in een AI-toepassing. Of dat eindgebruikers in een bepaalde mate betrokken zijn bij het ontwerpproces van de toepassing. Transparantie kan ook betekenen dat de context en werking van de toepassing uitgelegd worden. Transparantie over de inzet van AI-toepassingen kan de autonomie van het individu vergroten doordat het de mogelijkheid biedt zich te verhouden tot, bijvoorbeeld, een automatisch genomen besluit. Bij transparantie is het belangrijk te bedenken dat diensten (maar ook producten zoals de zelfrijdende auto) vaak uit talloze componenten zijn opgebouwd. Sommige componenten kunnen AI worden genoemd. Veel van die componenten bevinden zich niet onder het directe beheer van de organisatie die de dienst aanbiedt. Zo maken overheden gebruik van elkaars data en ‘vertrouwen’ zelfrijdende auto’s op data van wegbeheerders, andere auto’s op de weg en aanbieders van navigatiesystemen. Vaak zullen deze diensten gebruikmaken van data uit allerlei databronnen die continu veranderen. In veel gevallen is niet meer precies duidelijk welke data op het moment van een beslissing een rol speelden. De vraag is dan welke kennis en organisatorische maatregelen nodig zijn om verantwoordelijkheid te kunnen nemen en ongewenste gevolgen en herhaling te voorkomen. Algoritmische transparantie kan daarbij helpen. Het bepalen of een toepassing betrouwbaar, veilig en transparant is een van de stappen in de AI Impact Assessment (AIIA). Het uitgangspunt van de AIIA is dat bij iedere toepassing van AI wordt gekeken wat nodig is aan transparantie en wat dat betekent voor de inrichting van de techniek, organisatie of de mensen die met de techniek werken. Kortom, een interessant programma met concrete voorbeelden uit de dagelijkse praktijk. Mis het niet! Wij zien u graag op 27 juni.