Transparant, betrouwbaar en ethisch gebruik van large language models

Large language modellen en generatieve AI staan volop in the picture, maar het is voor veel organisaties nog een grote uitdaging om deze technologieën effectief in te zetten. De technologie lijkt in potentie veel processen te kunnen verbeteren, versnellen of effectiever te maken, maar hoe doet men dit op een verantwoorde manier, en in lijn met Europese waarden rond betrouwbare AI?

De EU high-level expert group heeft zeven key principes gedefinieerd voor ethische en betrouwbare AI. Dit omvat thema’s zoals menselijk toezicht, veiligheid, privacy, transparantie, diversiteit en eerlijkheid, duurzaamheid en aansprakelijkheid. Hierop gebaseerd is er recent de EU AI act aangenomen, welke richtlijnen geeft waaraan AI systemen moeten voldoen.

Hoe verhouden nieuwe AI technieken zoals Large Language Models en Generatieve AI zich tot deze waarden? Hoe kunnen we betekenisvolle uitspraken doen over de maatschappelijke impact hiervan? En wat betekent dit in de praktijk? Hoe gaan organisaties om met generatieve AI en Large Language Models (zoals ChatGPT)? Hoe doet men dit op een transparante, betrouwbare en ethische manier, en hoe communiceert men naar gebruikers en consumenten dat er gebruik wordt gemaakt van AI? In deze Learning table bespreken we wat de aankomende AI-act hiervoor betekent en de maatschappelijke uitdagingen op dit gebied.