Hoe krijgen we grip op polarisatie en desinformatie?

Conclusies

  • Van AI wordt inmiddels gebruik gemaakt in elke verkiezingscampagne, het is onderdeel van de toolbox van communicatieprofessionals – of we het willen of niet. De vraag is hoe we ermee om willen gaan en welke regulering er moet komen.
  • De opkomst van AI-chatbots vormt een systemisch risico voor verkiezingsintegriteit door misinformatie en propaganda, wat vraagt om strengere regulering en transparantie van technologieplatforms.
  • Polarisatie wordt strategisch gebruikt door extremisten, populisten en conservatieven om eigen belangen te dienen, wat vraagt om bewustwording van de herkomst en verspreiding van informatie.

Samenvatting

De verspreiding van nepnieuws en polariserende algoritmes kan grote gevolgen hebben. Zo kunnen de uitslagen van politieke verkiezingen beïnvloed worden en kunnen zelfs gewelddadige protesten aangewakkerd worden. 

Maar hoe werkt de verspreiding van desinformatie en hoe leidt dit tot polarisatie? En wie zitten hierachter? 

Als we beter begrijpen hoe online mechanismen de verspreiding van desinformatie en polarisatie aanjagen, kunnen we effectieve oplossingen ontwikkelen om de negatieve effecten tegen te gaan en de positieve te versterken. 

Claes: De impact van AI op verkiezingscampagnes is groot, maar minder groot dan gedacht. Of deze impact goed of slecht is, daar kunnen we nog geen uitspraken over doen. Er moet gekeken worden naar AI bedrijven, social media platforms, politieke partijen en kandidaten, traditionele media, burgers, en de overheid. Het is dus niet alleen een politieke discussie.   

 “We hoeven niet te pessimistisch te worden over AI, want er zitten mooie kansen.” – Claes de Vreese (Universiteit van Amsterdam

Marc: Tijdens verkiezingsjaren vormt de invloed van chatbots een risico voor de integriteit van verkiezingen. AI Forensics, een Europese non-profitorganisatie, onderzoekt de impact van invloedrijke en ondoorzichtige algoritmes en houdt grote technologieplatforms verantwoordelijk. Uit hun eerste onderzoek in september 2023 bleek dat 30% van de antwoorden van ChatGPT op feitelijke verkiezingsvragen fouten bevatten. Bovendien kunnen antwoorden verschillen per vraagstelling en taal, terwijl moderatie vaak ontbrak. Dit maakt misinformatie een systemisch risico voor verkiezingen. 

Naast feitelijke onnauwkeurigheden kunnen chatbots ook propaganda ondersteunen, wat de verspreiding van desinformatie via sociale media vergemakkelijkt. Om dit tegen te gaan, is regulering belangrijk, zoals het invoeren van watermerken om AI-gegenereerde inhoud te identificeren. Hoewel technieken, zoals het toevoegen van statistische signalen aan prompts, al beschikbaar zijn, ontbreekt vaak de motivatie van platforms om deze te implementeren. Regulering zou hierin een belangrijke rol kunnen spelen, vergelijkbaar met de aanpak voor AI-gegenereerde visuele content. 

 “Het is makkelijk om desinformatie die gegenereerd is door ChatGPT te delen via social media.” – Marc Faddoul (AI Forensics):

Jelle: Polarisatie wordt bewust aangewakkerd door extremisten, populisten en conservatieven om eigen belangen te dienen, waarbij informatie via diverse kanalen, zowel online als offline, wordt verspreid. Onderzoek naar de oorsprong van deze dynamiek onthult terugkerende patronen en invloedrijke actoren, zoals mediastations. Hoewel het ontmaskeren van organisaties effectief kan zijn, blijft het een uitdaging om de stille meerderheid, de 80% in het midden, te bereiken en bewust te maken van de bron en het doel van gepolariseerde informatie. 

 “Voordat je informatie deelt op social media, check altijd goed wat de bron is.” – Jelle Postma (Justice for Prosperity):