Uw gegevens. Uw keuze.

Als je alleen het noodzakelijke kiest, verzamelen we met cookies en vergelijkbare technologieën informatie over je apparaat en je gebruik van onze website. Deze hebben we nodig om je bijvoorbeeld een veilige login en basisfuncties zoals het winkelwagentje te kunnen bieden.

Als je overal mee instemt, kunnen we deze gegevens daarnaast gebruiken om je gepersonaliseerde aanbiedingen te tonen, onze website te verbeteren en gerichte advertenties te laten zien op onze eigen en andere websites of apps. Bepaalde gegevens kunnen hiervoor ook worden gedeeld met derden en advertentiepartners.

gguy / Shutterstock
Nieuws en trends

Guardian-onderzoek: GPT-5.2 gebruikt Grokipedia als bron

Kim Muntinga
26-1-2026
Vertaling: machinaal vertaald

Uit een onderzoek van de Guardian blijkt dat GPT-5.2 in verschillende gevallen Grokipedia als bron heeft gebruikt. De bevindingen brengen een centraal probleem van moderne AI onder de aandacht: de moeilijke scheidslijn tussen geverifieerde informatie en synthetisch gegenereerde kennis.

Het feit dat een groot taalmodel zoals GPT-5.2 ongefilterde inhoud uit een AI-gegenereerde encyclopedie haalt, werd lang beschouwd als een theoretisch risico. Nu is het op zijn minst gedeeltelijk realiteit. The Guardian heeft ontdekt dat het model herhaaldelijk put uit Grokipedia van Elon Musk. Een bron die sinds de lancering zeer controversieel is geweest vanwege politieke vooringenomenheid, gebrek aan transparantie en feitelijke fouten.

De onthulling roept belangrijke vragen op over de kwaliteit van gegevens, de neutraliteit van AI-systemen en de effectiviteit van hun veiligheids- en controlemechanismen.

Wat de Guardian ontdekte

Tijdens het testen ontdekte de Guardian dat GPT-5.2 negen keer toegang had tot inhoud van Musk's Grokipedia, over meer dan een dozijn zoekopdrachten die sterk varieerden in onderwerp. Dit gebeurde met name vaak op de website van Musk.

Dit gebeurde vooral vaak bij minder prominente thema's, zoals details over aan de staat gelieerde organisaties in Iran - waaronder de salarissen van de Basij-militie of de eigendomsstructuur van de Mostazafan Foundation. Biografische details over de Britse historicus Sir Richard Evans, die getuigde als getuige-deskundige in het proces tegen de Holocaustontkenner David Irving, werden ook overgenomen van Grokipedia, hoewel sommige van deze details aantoonbaar vals zijn.

In sommige gevallen gaf de AI de voorkeur aan inhoud van Grokipedia boven gevestigde encyclopedieën, zelfs als deze tegenstrijdige of preciezere informatie gaven. Dit is in tegenspraak met de lang gecommuniceerde claim van OpenAI om antwoorden te geven op basis van geverifieerde en betrouwbare bronnen en maakt het probleem des te ernstiger.

Volgens onderzoek van de Guardian gebruikt niet alleen GPT-5.2 Grokipedia. Ook Anthropic's taalmodel Claude bleek Grokipedia als bron te gebruiken, bijvoorbeeld voor zoekopdrachten over technische of gespecialiseerde thema's zoals aardolieproductie of nicheonderwerpen zoals Scottish ales.

Waarom Grokipedia problematisch is als bron

Elon Musk presenteerde Grokipedia in oktober 2025 als een door AI gegenereerd antwoord op Wikipedia: met het verklaarde doel om vermeende «linkse neigingen» van de klassieke online encyclopedie te compenseren. Critici zien Grokipedia echter meer als een antithese met duidelijk herkenbare politieke vooroordelen, zoals een neiging naar rechtse verhalen.

  • Nieuws en trends

    "Grokipedia" - Elon Musk lanceert Wikipedia-wedstrijd

    van Samuel Buchmann

Het cruciale probleem ligt dieper: Grokipedia wordt bijna uitsluitend gegenereerd door Musk's AI-model Grok, zonder open bewerking door een community. Alle inhoud wordt dus gecreëerd onder dezelfde algoritmische voorwaarden, zonder onafhankelijke controle, zonder collaboratieve kwaliteitsborging, zonder transparante redactionele correcties.

Wanneer een groot taalmodel zoals GPT-5.2 inhoud van een ander AI-platform citeert, is er sprake van een terugkoppelingseffect: «Garbage in, garbage out». Fouten of verkeerde voorstellingen kunnen elkaar versterken, aan geloofwaardigheid winnen en bijna ongemerkt in de reacties van andere AI-systemen sluipen.

Het allesoverheersende gevaar: LLM grooming

Naast dit technische mechanisme wijst de Guardian echter op een nog groter risico: het fenomeen van «LLM grooming». De term verwijst naar het gericht injecteren van dergelijke inhoud in het publieke informatielandschap met de bedoeling om de kennisbasis van taalmodellen op de lange termijn te beïnvloeden.

In tegenstelling tot het onbedoelde terugkoppelingseffect ligt de nadruk hier op een strategische intentie: door AI-gegenereerd materiaal systematisch op het web te plaatsen, kan het later verschijnen in zoekresultaten of encyclopedieën en wordt het door modellen zoals GPT-5.2 beoordeeld als een legitieme bron. Als gevolg hiervan verschuift het informatie-ecosysteem geleidelijk van door mensen geverifieerde feiten naar synthetische inhoud die door AI wordt gegenereerd en door andere AI's wordt opgepikt. Het is precies dit mechanisme dat de Guardian visualiseert in de Grokipedia-case.

Hoe OpenAI reageert

OpenAI benadrukt dat GPT-5.2 is ontworpen om te putten uit een breed scala aan openbaar beschikbare bronnen. Beveiligingsfilters zijn ontworpen om te voorkomen dat links of inhoud met een hoog potentieel voor schade verschijnen. Recente bevindingen tonen echter aan dat deze filters niet consistent werken als het gaat om door AI gegenereerde bronnen zoals Grokipedia.

Voor OpenAI is de onthulling een kritiek moment: het roept de vraag op of moderne taalmodellen voldoende onderscheid kunnen maken tussen informatie die afkomstig is van mensen en informatie die uitsluitend uit AI-gegenereerde cycli komt.

Omslagfoto: gguy / Shutterstock

30 mensen vinden dit artikel leuk


User Avatar
User Avatar

Mijn interesses zijn gevarieerd, ik geniet gewoon graag van het leven. Altijd op zoek naar nieuws over darten, gamen, films en series.


Nieuws en trends

Van de nieuwe iPhone tot de wederopstanding van de mode uit de jaren 80. De redactie categoriseert.

Alles tonen

Deze artikelen kunnen je ook interesseren

  • Nieuws en trends

    Confer is een AI chatbot met end-to-end encryptie

    van Jan Johannsen

  • Nieuws en trends

    CES-gadgets 2026 die je niet nodig hebt (maar misschien wel wilt hebben)

    van Michelle Brändle

  • Opinie

    AI maakt mensen dommer - en bedrijven armer

    van Oliver Herren

22 opmerkingen

Avatar
later