Kijk eens bij de Nieuwe onderwijsboeken!

Verhalen over AI als bedreiging voor de mensheid leiden niet af van de directe schadelijke effecten ervan

Emma Hoes
Postdoctoraal onderzoeker bij Universiteit van Zürich  

Hoes, E., & Gilardi, F. (2025). Verhalen over AI als bedreiging voor de mensheid leiden niet af van de directe schadelijke effecten ervan. Nederlandse vertaling,
Geraadpleegd op 09-12-2025,
van https://wij-leren.nl/ai-bedreiging-mensheid-directe-schadelijke-effecten.php
Geplaatst op 11 september 2025
Laatst bewerkt op 29 september 2025
verhalen over AI als bedreiging voor de mensheid

Abstract

Er is brede overeenstemming dat AI risico’s met zich meebrengt, maar er is aanzienlijke onenigheid over de aard van die risico’s. Deze verschillende standpunten kunnen worden gezien als aparte narratieven, die elk een specifieke interpretatie bieden van de potentiële gevaren van AI. 

Eén narratief richt zich op doemscenario’s waarbij AI op de lange termijn een existentieel risico vormt voor de mensheid. Een ander narratief legt de nadruk op directe zorgen die AI vandaag de dag met zich meebrengt voor de samenleving, zoals het reproduceren van vooroordelen die in AI-systemen zijn ingebouwd. Een belangrijk twistpunt is dat de doemscenario’s over AI, die grotendeels speculatief zijn, zouden kunnen afleiden van de minder dramatische maar reële en actuele gevaren van AI. 

Speculatieve doemscenario’s kunnen afleiden van de reële, actuele risico’s van AI.

Wij behandelen deze “afleidingshypothese” door te onderzoeken of een focus op existentiële dreigingen de aandacht afleidt van de directe risico’s die AI vandaag de dag met zich meebrengt. 

In drie vooraf geregistreerde online enquête-experimenten (N = 10.800) werden deelnemers blootgesteld aan nieuwskoppen die AI ofwel afschilderden als een catastrofaal risico, ofwel de directe maatschappelijke impact benadrukten, ofwel de potentiële voordelen van AI onderstreepten. 

De resultaten tonen aan dat 1) respondenten veel meer bezorgd zijn over de directe dan over de existentiële risico’s van AI en 2) verhalen over existentiële risico’s de bezorgdheid over grote rampen vergroten, maar geen afbreuk doen aan de zorgen die mensen hebben over directe schade. Deze bevindingen leveren belangrijk empirisch bewijs dat kan bijdragen aan de wetenschappelijke en politieke debatten over de maatschappelijke implicaties van AI.


Dit artikel is een vertaling van het Engelstalige artikel ‘Existential risk narratives about AI do not distract from its immediate harms' van dr. Hoes en prof. dr. Gilardi.

Wij-leren heeft hier passende infographics bij ontworpen. Wil je op de hoogte blijven van nieuwe artikelen, tips en infographics? Schrijf je dan in voor het gratis kennisdossier van de Wij-leren Academie. 


Inleiding

Er is brede overeenstemming dat AI aanzienlijke risico’s met zich meebrengt, maar de specifieke aard en reikwijdte van die risico’s worden sterk betwist. Twee perspectieven springen eruit, die elk een samenhangend narratief vormen dat verantwoordelijkheid toeschrijft aan bepaalde aspecten van de ontwikkeling en toepassing van AI. 

Ten eerste stelt het “existentiële risiconarratief” dat naarmate AI-systemen zich verder ontwikkelen, ze de menselijke controle kunnen ontlopen. Dit kan leiden tot onvoorziene en mogelijk catastrofale gevolgen voor de mensheid. Een vaak geciteerd feit is dat in een enquête onder machine learning-onderzoekers de mediane respondent de kans op 5 procent schatte dat AI met menselijke intelligentie zou kunnen leiden tot uitkomsten zoals het uitsterven van de mensheid; deze schatting staat nu bekend als “p(doom).” Het perspectief van existentieel risico werd prominent verwoord in de “Statement on AI risks” die in mei 2023 werd ondertekend door vooraanstaande AI-wetenschappers en CEO’s.  Hierin staat: “Het verminderen van het risico op uitsterven door AI zou een wereldwijde prioriteit moeten zijn, naast andere risico’s op maatschappelijke schaal, zoals pandemieën en nucleaire oorlog”.

AI kan de menselijke controle ontglippen, met mogelijk catastrofale gevolgen voor de mensheid.

Ten tweede richt het narratief over “directe risico’s” zich op de tastbare, actuele maatschappelijke gevaren die AI met zich meebrengt, voortbouwend op de goed gedocumenteerde risico’s van eerdere AI-systemen. In dit narratief is plaats voor kwesties zoals de reproductie van maatschappelijke vooroordelen in besluitvorming door AI. Ook schadelijk gebruik, zoals deepfake-pornografie of desinformatie komt aan de orde. Dit narratief stelt dat deze directe problemen urgenter en relevanter zijn dan speculatieve existentiële bedreigingen. 

Deze twee soorten risico’s zijn niet mutueel exclusief: ze sluiten elkaar niet per se uit. Bij debatten over AI lijken deze narratieven echter vaak tegenover elkaar te staan als concurrerende perspectieven. Een veelgehoord kritiekpunt vanuit het perspectief van directe risico’s is dat het narratief over existentiële dreiging – door de focus op toekomstige, speculatieve AI-capaciteiten – de aandacht afleidt van de huidige, aantoonbare schade en aansluit bij de belangen van technologiebedrijven.

Het debat kreeg meer aandacht na de lancering van ChatGPT eind 2022, maar is geworteld in langdurige zorgen dat misplaatste angsten over de impact van AI middelen kunnen sturen in richtingen die niet productief zijn. De media spelen hierin een sleutelrol: alarmerende berichtgeving over AI gaat vaak samen met verhalen over existentiële risico’s.

Verhalen over AI-doemscenario’s kunnen de aandacht afleiden van urgente problemen in het hier en nu.

Methode

Hoewel narratieven over AI belangrijk zijn, is er nog weinig bekend over hun impact. In deze studie leveren we empirisch bewijs over de impact van de verschillende narratieven. Dit doen we vanuit drie online enquête-experimenten uitgevoerd in de Verenigde Staten (studies 1, 2 en 3) en het Verenigd Koninkrijk (studie 2) (totaal aantal deelnemers = 10.800). 

De deelnemers werden blootgesteld aan nieuwskoppen die ofwel 1) AI afschilderden als een catastrofaal risico, 2) de directe maatschappelijke impact benadrukten, of 3) de voordelen van AI onderstreepten, om zo de invloed van deze narratieven op de beoordeling van verschillende potentiële uitkomsten van de ontwikkeling en toepassing van AI te meten. 

Om de impact van AI-narratieven te meten, werden 10.800 deelnemers blootgesteld aan zorgvuldig gemodelleerde krantenkoppen.

We maakten gebruik van een between-subjects experimenteel design met drie hoofdgroepen. De deelnemers in deze groepen werden blootgesteld aan vijf krantenkoppen en bijbehorende inleidende teksten die respectievelijk de existentiële risico’s van AI, de directe risico’s van AI, of de positieve mogelijkheden van AI benadrukten. 

De krantenkoppen werden gegenereerd door ChatGPT, dat werd gevraagd om bestaande koppen en inleidingen te herschrijven in de stijl van de New York Times, om ideologische en stilistische consistentie te waarborgen. Deze consistentie in schrijfstijl moest ervoor zorgen dat eventuele verschillen in reacties van deelnemers konden worden toegeschreven aan de inhoud van de koppen en niet aan de stijl.

De deelnemers in de groep “existentiële risico’s” kregen uitsluitend koppen te zien die betrekking hadden op existentiële bedreigingen. Degenen in de groep “directe risico’s” zagen enkel koppen over onmiddellijke gevaren. De groep “positieve uitkomsten” werd alleen blootgesteld aan koppen die de positieve capaciteiten van AI benadrukten. Daarentegen kreeg de controlegroep helemaal geen krantenkoppen te zien.

Deelnemers werden ondergedompeld in één narratief: existentiële dreiging, directe schade of AI-voordelen.

Een factoranalyse toont aan dat existentiële en directe risico’s op verschillende factoren laden. Dit wijst erop dat het om afzonderlijke constructen gaat. De gebruikte koppen zijn terug te vinden in de aanvullende informatie (zie de SI Appendix).

In alle drie de studies hebben we in totaal 19 uitkomsten gemeten:

  1. Vermogen om existentiële risico’s te veroorzaken,
  2. Directe risico’s,
  3. Positieve uitkomsten,
  4. Complottheorieën,
  5. Het belang van andere maatschappelijke kwesties,
  6. Geloof in onwaarheden die niet met AI te maken hebben,
  7. Steun voor een petitie voor verantwoordelijke AI-ontwikkeling,
  8. Het ondertekenen van een petitie,
  9. Rangorde op basis van impact.

In Studie 2 hebben we Likert-schalen geïntroduceerd voor waarschijnlijkheid en impact (schaal 10 tot 15, gemeten voor drie risico’s), de rangorde uitgebreid met waarschijnlijkheid (16) en steun voor AI-beleid en -governance toegevoegd (17), evenals perceptie van AI-macht (18) en gevoelens ten opzichte van AI (19).

In Studie 3 zijn geen nieuwe uitkomsten geïntroduceerd; de focus lag uitsluitend op capaciteit, waarschijnlijkheid en impact. De schalen voor capaciteit zijn aangepast om zowel een 1-tot-5- als een 1-tot-10-schaal te omvatten, om vergelijkbaarheid met Studie 1 te garanderen. De 1-tot-10-schalen voor waarschijnlijkheid en impact, die in Studie 2 werden geïntroduceerd, zijn behouden voor consistentie.

Alle drie de studies hadden hetzelfde onderzoeksdesign en werden uitgevoerd via Prolific Academic, met steekproeven die gebalanceerd waren op ideologie en gender.

  • In Studie 1 (uitgevoerd op 1 februari 2024) rekruteerden we 3.000 deelnemers uit de VS.
  • In Studie 2 (uitgevoerd op 21 mei 2024) rekruteerden we 3.000 deelnemers (1.500 uit het VK, 1.500 uit de VS).
  • In Studie 3 (uitgevoerd op 13 juni 2024) rekruteerden we 4.800 deelnemers uit de VS.

Respondenten deden slechts aan één studie mee en werden uitgesloten van alle volgende studies.

Alle deelnemers namen slechts eenmaal deel, verspreid over drie gebalanceerde steekproeven in de VS en het VK.

De constructen werden als volgt gemeten:

  • Capaciteit werd gemeten met de vraag: “Hoe waarschijnlijk denkt u dat het is dat AI in staat zal zijn om het beschreven probleem te veroorzaken?”
  • Waarschijnlijkheid: “Hoe waarschijnlijk denkt u dat het is dat de volgende uitkomsten met betrekking tot AI binnen tien jaar zullen optreden?”
  • Impact: “Hoe groot zou de impact zijn van elke uitkomst, als deze zou plaatsvinden?”

Voor Studie 2 hebben we de metingen aangepast om het item ‘capaciteit’ uit Studie 1 beter te ontleden, omdat dit mogelijk een combinatie was van ‘waarschijnlijkheid’ en ‘impact’. Dit beperkte de interne validiteit.

Deelnemers beoordeelden hoe waarschijnlijk AI bepaalde uitkomsten kan veroorzaken én hoe ernstig die gevolgen zouden zijn.

De reden voor het uitvoeren van Studie 3 was tweeledig:

  1. We wilden de bevindingen van Studie 1 en 2 repliceren om de betrouwbaarheid van de resultaten te waarborgen.
  2. De resultaten van Studie 1 en 2 riepen verdere vragen op over de mate waarin deelnemers de drie metingen (capaciteit, waarschijnlijkheid en impact) als verschillend beschouwden. Dit suggereerde de noodzaak om deze dimensies duidelijker te onderscheiden.

Respondenten beoordeelden de capaciteit, waarschijnlijkheid en impact van de existentiële risico’s, directe risico’s en voordelen van AI door het evalueren van één stelling (Studies 1 en 2, gerandomiseerd) of alle stellingen (Studie 3, in willekeurige volgorde) per categorie (existentiële, directe risico’s, voordelen).

Alle gebruikte stellingen en meer details over het studie-opzet zijn terug te vinden in de pre-analyseplannen:

Onze studie is goedgekeurd door de PhF Ethische Commissie van de Universiteit van Zürich (goedkeuringsnummer 23.10.14). Alle deelnemers gaven informed consent.

Resultaten

We pre-registreerden 69 hypothesen: 18 in Studie 1, 27 in Studie 2, en 24 in Studie 3. Alle wijzigingen tussen de studies zijn volledig gedocumenteerd in de betreffende preregistraties, met aanvullende toelichting in een Populated PAP, beschikbaar in de aanvullende informatie (zie de SI Appendix).

Hier beoordelen we de “afleidingshypothese” (geregistreerd als H1a in Studie 1 en H2 in Studies 2 en 3) door ons te richten op drie kernuitkomsten van Studies 1 en 2, die gecombineerd zijn geanalyseerd in Studie 3:

  1. Vermogen: het vermogen van AI om specifieke effecten teweeg te brengen;
  2. Waarschijnlijkheid: de inschatting van de kans dat deze ontwikkelingen zich ook daadwerkelijk zullen voordoen;
  3. Impact: het beoordelen van de betekenis of gevolgen van deze ontwikkelingen als ze daadwerkelijk plaatsvinden.

De afleidingshypothese werd getoetst aan de hand van drie kernvragen: kan AI dit, gebeurt het echt, en wat zijn de gevolgen?

Figuur 1 laat zien hoe respondenten de existentiële risico’s, directe risico’s en voordelen van AI beoordeelden in termen van de capaciteit van AI om deze uitkomsten te veroorzaken, evenals de waarschijnlijkheid en impact van elk van deze uitkomsten.

Figuur 1. Beoordeling van existentiële risico’s, directe risico’s en voordelen van AI (op een schaal van 1 tot 10) op drie dimensies (capaciteit, waarschijnlijkheid en impact), uitgesplitst naar de controlegroep en drie experimentele groepen, met 95%-betrouwbaarheidsintervallen (Studie 3, N = 4.800). De zorgen over de capaciteit en waarschijnlijkheid van AI om directe risico’s te veroorzaken zijn groter dan die over existentiële risico’s; beide typen risico’s worden echter als ongeveer even ernstig beschouwd wat betreft hun mogelijke impact. Voor het originele figuur, zie het Engelstalige artikel.

In Figuur 2, 3 en 4 zijn toegankelijke versies voor onderwijsprofessionals weergegeven. Wil je deze infographics gratis downloaden in hoge resolutie? Schrijf je dan in voor het gratis kennisdossier van de Wij-leren Academie.

Figuur 2. Vormt AI een existentiële dreiging?

Figuur 3. Vormt AI een direct risico?

Figuur 4. Zorgt AI voor toekomstkansen?

Wil je deze infographics downloaden in hoge resoluatie en op de hoogte blijven van nieuwe artikelen, tips en infographics? Schrijf je dan in voor het gratis kennisdossier van de Wij-leren Academie.

Het vermogen van AI 

Lineaire regressies laten zien dat narratieven over existentiële risico’s het waargenomen vermogen van AI om existentiële risico’s te veroorzaken verhogen. Significante effecten werden gevonden in Studie 1 (Likert-schaal 1 tot 5: B = 0.28, p = 0.00, p adj. = 0.00) en Studie 3 (1 tot 5: B = 0.25, p = 0.00, p adj. = 0.01), met zwakkere ondersteuning voor de schaal van 1 tot 10 in Studie 3 (B = 0.31, p = 0.04, p adj. = 0.25).

Daarentegen werden voor het waargenomen vermogen van AI om directe risico’s te veroorzaken significante positieve effecten van existentiële risiconarratieven gevonden in Studie 1 (1 tot 5: B = 0.18, p = 0.00, p adj. = 0.00), maar het bewijs verzwakte in Studie 3, met verminderde significantie op de schaal van 1 tot 5 (B = 0.12, p = 0.02, p adj. = 0.22) en geen effect op de schaal van 1 tot 10 (B = 0.14, p = 0.27, p adj. = 0.56).

De impact

Wat betreft het effect van existentiële risiconarratieven op de waargenomen impact van directe risico’s, waren de resultaten gemengd. Studie 2 liet een tendens zien richting een lagere impact (1 tot 10: B = −0.42, p = 0.00, p adj. = 0.051), maar er werd geen significant effect gevonden in Studie 3 (1 tot 10: B = 0.11, p = 0.45, p adj. = 0.67).

De waarschijnlijkheid

De bevindingen over de waargenomen waarschijnlijkheid van directe risico’s waren eveneens inconsistent: Studie 2 suggereerde een toename (1 tot 10: B = 0,36, p = 0,03, p adj. = 0,37), terwijl Studie 3 geen effect liet zien (1 tot 10: B = 0,07, p = 0,59, p adj. = 0,71).

Samengevat worden existentiële risico’s aanzienlijk lager beoordeeld dan directe risico’s en voordelen, zowel qua het vermogen van AI om deze uitkomsten te veroorzaken, als qua de verwachte waarschijnlijkheid ervan. Bovendien wordt de mogelijke impact van existentiële risico’s ongeveer even groot geacht als die van directe risico’s en voordelen. Dit suggereert dat respondenten zich niet primair zorgen maken over de existentiële risico’s van AI. Ze lijken een evenwichtige kijk op zowel de directe risico’s als de voordelen te behouden.

Respondenten achten directe risico’s en voordelen van AI waarschijnlijker dan existentiële bedreigingen.

Discussie

Onze bevindingen tonen aan dat hoewel narratieven over existentieel risico de inschatting van mogelijke catastrofale schade vergroten, ze de bezorgdheid over de directe schade van AI niet verminderen. Er bestaan zorgen dat de focus op potentiële, langdurige catastrofale risico’s de aandacht afleidt van meer dringende kwesties, maar onze bevindingen suggereren het tegendeel.

Uit onze studies blijkt zelfs dat de directe schade van AI consequent de meeste publieke bezorgdheid oproept. Ethische kwesties, vooringenomenheid, misinformatie en baanverlies worden gezien als de meest urgente risico’s. Dit blijven topprioriteiten, zelfs wanneer deelnemers worden geconfronteerd met krantenkoppen over existentiële dreigingen van AI. 

Vooringenomenheid, ethische kwesties, misinformatie en baanverlies worden door het publiek als de meest urgente AI-risico’s gezien.

Deze resultaten suggereren dat de zorgen over de mogelijke negatieve gevolgen van alarmerende berichtgeving over existentiële AI-dreigingen mogelijk overdreven zijn, aangezien onze bevindingen geen direct effect laten zien op de publieke bezorgdheid over de directe risico’s van AI.

Blootstelling aan narratieven over existentiële risico’s vergroot dus de bewustwording van speculatieve dreigingen, maar vermindert de bezorgdheid over directe schade niet. De zorgen over directe risico’s blijven consequent groter dan die over catastrofale risico’s (wat betreft AI’s vermogen en waarschijnlijkheid om deze te veroorzaken) en zijn ongeveer gelijk bij het inschatten van de mogelijke impact. 

Onze bevindingen leveren een bijdrage aan het lopende debat over de maatschappelijke implicaties van AI door de noodzaak te benadrukken van een evenwichtig begrip van de risico’s die AI met zich meebrengt.

Narratieven over doemscenario’s met AI vergroten het bewustzijn, maar ondermijnen de bezorgdheid over directe AI-risico’s niet.

Een visuele samenvatting van dit artikel is te vinden in Figuur 5.

Figuur 5. Visuele samenvatting van het artikel.

Wil je deze infographic gratis downloaden in hoge resolutie? Schrijf je dan in voor het gratis kennisdossier van de Wij-leren Academie.

Gegevens, materiaal en softwarebeschikbaarheid

De gegevens en code om alle analyses te reproduceren zijn opgeslagen in de Harvard Dataverse (DOI: https://doi.org/10.7910/DVN/5FASLG) (12).

Dankbetuigingen

Dit project ontving financiering van de European Research Council in het kader van het Horizon 2020 onderzoeks- en innovatieprogramma van de Europese Unie (subsidieovereenkomst nr. 883121).

Bijdragen van de auteurs

E.H. en F.G. hebben het onderzoek ontworpen, uitgevoerd, geanalyseerd en het artikel geschreven.

Belangenconflictverklaring

De auteurs verklaren geen tegenstrijdige belangen te hebben.

Referenties

  • Banerjee, A., et al. (2020). In praise of moderation: Suggestions for the scope and use of pre-analysis plans for RCTs in economics.
  • Bengio, Y., et al. (2024). Managing extreme AI risks amid rapid progress. Science, 384, 842–845. https://doi.org/10.1126/science.adj1749
  • Center for AI Safety. (2023). Statement on AI risk. https://www.safe.ai/work/statement-on-ai-risk
  • Crawford, K., & Calo, R. (2016). There is a blind spot in AI research. Nature, 538, 311–313. https://doi.org/10.1038/538311a
  • Gilardi, F., Kasirzadeh, A., Bernstein, A., Staab, S., & Gohdes, A. (2024). We need to understand the effect of narratives about generative AI. Nature Human Behaviour, 8, 2251–2252. https://doi.org/10.1038/s41562-024-01882-5
  • Grace, K., Salvatier, J., Dafoe, A., Zhang, B., & Evans, O. (2018). When will AI exceed human performance? Evidence from AI experts. Journal of Artificial Intelligence Education, 62, 729–754. https://doi.org/10.1007/s10115-018-1244-z
  • Hanna, A., & Bender, E. M. (2023). AI causes real harm. Let’s focus on that over the end-of-humanity hype. Scientific American, 328, 69.
  • Hoes, E., & Gilardi, F. (2025). Replication data for: Existential risk narratives about Artificial Intelligence do not distract from its immediate harms. Harvard Dataverse. https://doi.org/10.7910/DVN/5FASLG
  • Kasirzadeh, A. (2024). Two types of AI existential risk: Decisive and accumulative. Philosophical Studies. https://doi.org/10.1007/s11098-025-02301-3
  • Nature Editorial. (2023). Stop talking about tomorrow’s AI doomsday when AI poses risks today. Nature, 618, 885–886. https://doi.org/10.1038/d41586-023-02072-9
  • Roe, J., & Perkins, M. (2023). ‘What they’re not telling you about ChatGPT’: Exploring the discourse of AI in UK news media headlines. Humanities and Social Sciences Communications, 10, 1–9. https://doi.org/10.1057/s41599-023-01984-1
  • Zou, J., & Schiebinger, L. (2018). AI can be sexist and racist – it’s time to make it fair. Nature, 559, 324–326. https://doi.org/10.1038/d41586-018-05707-8

Dit artikel is een vertaling van het Engelstalige artikel ‘Existential risk narratives about AI do not distract from its immediate harms' van dr. Hoes en prof. dr. Gilardi. Wij-leren heeft hier passende infographics bij ontworpen. Wil je op de hoogte blijven van nieuwe artikelen, tips en infographics? Schrijf je dan in voor het gratis kennisdossier van de Wij-leren Academie. 

Heb je vragen over dit thema? Stel ze in de onderwijs community binnen de Wij-leren.nl Academie!

Dossiers

Uw onderwijskundige kennis blijft op peil door 4000+ artikelen.