
Nieuws en trends
Vanwege AI: "Clair Obscur: Expeditie 33" toch geen indiegame van het jaar
van Michelle Brändle

In het Verenigd Koninkrijk is een veiligheidsrapport van de West Midlands Police zwaar bekritiseerd. Het is nu aan het licht gekomen dat het gebaseerd is op valse verklaringen van Microsofts AI "Copilot".
Het Verenigd Koninkrijk geeft op dit moment een perfect voorbeeld van waarom je informatie van een AI niet moet accepteren zonder het te controleren. Het geval van een UEFA Europa League voetbalwedstrijd in Birmingham op 6 november zorgt daar voor opschudding: In oktober kondigde de verantwoordelijke politieautoriteit aan dat ze geen bezoekende fans zou toelaten voor de wedstrijd tussen de Engelse club Aston Villa en de Israëlische club Maccabi Tel Aviv.
De beslissing was gebaseerd op het feit dat de politie geen toestemming had gegeven voor de wedstrijd.
De beslissing was gebaseerd op een intern rapport van de West Midlands Police en Birmingham City Council, waarin de wedstrijd werd aangemerkt als een risicowedstrijd. Nu is gebleken dat Microsofts chatbot Copilot was gebruikt voor de risicoanalyse - maar onjuiste informatie had verstrekt. Copilot noemde onder andere rellen bij een eerdere wedstrijd die nooit hadden plaatsgevonden.
Verder waren de verantwoordelijken, vooral het hoofd van de West Midlands Police, Craig Guildford, wekenlang bekritiseerd voor het uitsluiten van de Israëlische fans. Omdat er beschuldigingen van antisemitisme werden geuit, werd de zaak vanaf het begin ook uitgebreid besproken in de Britse politiek: Guildford en andere leden van de autoriteiten moesten bij verschillende gelegenheden vragen beantwoorden in het parlement.
Guildford had eerder ontkend dat AI was gebruikt voor het rapport en noemde in plaats daarvan een foutieve Google-zoekopdracht. In december verklaarde zijn autoriteit zelfs dat het interne gebruik van AI-tools niet was toegestaan. Nu heeft Guildford de betrokkenheid van Copilot toegegeven en zijn excuses aangeboden voor de verkeerde informatie uit het verleden. Hooggeplaatste politici roepen op tot zijn ontslag.
De officiële verklaring over het niet toelaten van gastfans verwijst naar geheime verslagen en gewelddadige rellen door Maccabi-fans bij een wedstrijd in Amsterdam in 2024. De Nederlandse politie spreekt dit echter tegen in een brief.
De geheime rapporten bevatten blijkbaar verwijzingen naar een eerdere wedstrijd tussen Maccabi Tel Aviv en West Ham United - die echter nooit heeft plaatsgevonden. Hoe een fictieve wedstrijd in een officiële risicoanalyse terecht kan komen en waarom dergelijke informatie niet wordt gecontroleerd, staat sindsdien centraal in het onderzoek naar de zaak.
Onder het invoermasker van de chatbot Copilot is te lezen: «Copilot is een AI en kan fouten maken». Het incident illustreert drastisch de risico's van moderne taalmodellen. AI-chatbots genereren hun antwoorden op basis van waarschijnlijkheden, niet omdat ze de context begrijpen. Huidige onderzoeken - zoals dit - laten zien dat grote taalmodellen gewoon systematisch misleid kunnen worden.
Copilot kan patronen uit eerdere spelletjes of berichten hebben gecombineerd en daaruit een fictief scenario hebben gecreëerd. Het fenomeen van het verzinnen van geloofwaardige verklaringen staat bekend als AI-hallucinatie.
Voor toepassingsscenario's met gevoelige gegevens of verstrekkende gevolgen is het daarom essentieel om de gegenereerde teksten te controleren op juistheid.
Voelt zich net zo thuis voor de spelcomputer als in de hangmat in de tuin. Houdt onder andere van het Romeinse Rijk, containerschepen en sciencefictionboeken. Bovenal speurt hij naar news uit de IT-sector en slimme dingen.
Van de nieuwe iPhone tot de wederopstanding van de mode uit de jaren 80. De redactie categoriseert.
Alles tonen