Uw gegevens. Uw keuze.

Als je alleen het noodzakelijke kiest, verzamelen we met cookies en vergelijkbare technologieën informatie over je apparaat en je gebruik van onze website. Deze hebben we nodig om je bijvoorbeeld een veilige login en basisfuncties zoals het winkelwagentje te kunnen bieden.

Als je overal mee instemt, kunnen we deze gegevens daarnaast gebruiken om je gepersonaliseerde aanbiedingen te tonen, onze website te verbeteren en gerichte advertenties te laten zien op onze eigen en andere websites of apps. Bepaalde gegevens kunnen hiervoor ook worden gedeeld met derden en advertentiepartners.

Shutterstock/foto voor alles
Achtergrond

Anthropic speelt met zijn goede imago: Komt er een spywarebrug met Claude?

Debora Pape
22-4-2026
Vertaling: machinaal vertaald

Het AI-bedrijf Anthropic, dat bekend staat om zijn strikte ethische principes, is zwaar bekritiseerd nadat een expert op het gebied van gegevensbescherming een ongevraagde installatie van potentiële spyware had ontdekt in de Claude desktop app.

Het Amerikaanse bedrijf Anthropic, dat achter het AI-model Claude zit, doet veel moeite om over te komen als een verantwoordelijk bedrijf met principes. Alleen al dit jaar heeft Anthropic verschillende keren het nieuws gehaald met beslissingen en uitspraken die kritisch waren over AI, waarmee de reputatie van het bedrijf als «the good guys» werd onderbouwd. Maar nu heeft gegevensbeschermingsconsultant Alexander Hanff een ontdekking gedaan die een ander licht werpt op Anthropic.

In een blogpost beschrijft Hanff hoe hij per ongeluk een bestand ontdekte dat samen met de Claude desktop app op zijn Macbook was geïnstalleerd. Dit kon Anthropic toegang geven tot gevoelige gegevens en rechten op zijn systeem - en hij had niet ingestemd met de installatie en wist er ook niets van. Hanff beschrijft het gedrag als spyware en spreekt van een mogelijke illegale achterdeur.

Een softwarebrug maakt Claude mogelijk zonder toestemming

Het bestand is een «Native Messaging Manifest», oftewel een softwarebrug. Het kan de browserextensie «Claude for Chrome» inschakelen om het uitvoerbare hulpprogramma «chrome-native-host» buiten de browser aan te roepen. Dit gebruikt dezelfde privileges als de ingelogde gebruiker.

De bridge is standaard inactief. Hij is echter vooraf geconfigureerd zodat hij op elk moment actief kan worden zodra gedefinieerde voorwaarden hem oproepen. Claude krijgt dan uitgebreide agentmogelijkheden van het uitgevoerde programma: De AI heeft toegang tot websites waarop de gebruiker is ingelogd, kan gegevens van websites halen en deze lokaal opslaan, geanimeerde GIF-afbeeldingen van gebruikersinteracties in de browser opnemen en workflows uitvoeren op meerdere websites - zonder dat gebruikers expliciet hebben ingestemd met het onderliggende mechanisme.

De communicatie tussen de browser en de AI verloopt via de browser.

De communicatie tussen de browser en «chrome-native-host» vindt plaats via de standaard datastromen. Het verschijnt niet in de gebruikelijke MacOS-dialogen. Het ongevraagd geïnstalleerde bestand is digitaal ondertekend door Anthropic en geverifieerd door het notarisatieproces van Apple. Dit betekent dat het de geautomatiseerde beveiligingscontrole van Apple heeft doorstaan.

Alleen Chromium-gebaseerde browsers zijn getroffen

De Claude app slaat het bestand op in de applicatiemappen van zeven Chromium-gebaseerde browsers: Google Chrome, Microsoft Edge, Vivaldi, Brave, Arc, Chromium en Opera. En dat is nog niet alles: deze browsers hoeven niet eens op het systeem geïnstalleerd te zijn. De app maakt gewoon zelf de benodigde mappen aan. Als de gebruiker in de toekomst een van de browsers installeert, is de brug voor Claude al aanwezig.

Browsers die niet op Chromium zijn gebaseerd, zoals Firefox en Safari, worden niet beïnvloed. Hanff heeft zijn onderzoek alleen uitgevoerd met Mac-systemen. Hij geeft niet aan of Windows computers ook zijn getroffen.

Volgens Hanffs beoordeling is de bridge in strijd met de wet op gegevensbescherming, in het bijzonder de ePrivacy-richtlijn, en zou het strafrechtelijk relevant kunnen zijn. Andere deskundigen op het gebied van gegevensbescherming betwijfelen dit, maar bevestigen de bevindingen van Hanff. Anthropic heeft hier nog geen commentaar op gegeven

Wat zou de achtergrond kunnen zijn?

Backdoors en spyware staan haaks op het imago van Anthropic. Het bedrijf kan er geen belang bij hebben om zijn reputatie op het spel te zetten. Het laten vallen van het bestand, dat als overbrugging dient, is waarschijnlijker te wijten aan nalatigheid of een gebrek aan communicatie.

Anthropic kan het gebruikt hebben om geplande agentfuncties op een later tijdstip voor te bereiden en heeft verzuimd gebruikers om toestemming te vragen. Een latere «opt-in» zou waarschijnlijk zijn. Het is mogelijk dat de ontwikkelingsteams en gegevensbeschermingsteams van Anthropic niet voldoende of helemaal niet hebben gecoördineerd. Het probleem met het programma is niet de opties die het biedt, maar het gebrek aan openheid. De juiste manier zou zijn om de gebruiker eerst om toestemming te vragen en dan pas de software te installeren.

Het is ook denkbaar dat het mechanisme in eerste instantie alleen bedoeld was voor interne testversies (builds) en per ongeluk is behouden voor de officiële release. Bovendien onderschatten Amerikaanse ontwikkelteams herhaaldelijk de strenge gegevensbeschermingsnormen van de EU, waarvoor zo'n voortijdige installatie zonder toestemming een enorme no-go is.

Wat voor bedrijf is Anthropic?

Anthropic is in 2021 opgericht door medewerkers van OpenAI, het bedrijf achter ChatGPT. Ze waren weggegaan bij OpenAI omdat het bedrijf zich te commercieel ontwikkelde en te laks omging met risico's. Anthropic zou als tegenontwerp moeten dienen en AI moeten benadrukken als een nuttig, onschadelijk hulpmiddel dat de wereld beter maakt. De krantenkoppen van de afgelopen weken hebben Anthropic geholpen om de indruk te versterken dat het een verantwoordelijk bedrijf is met principes - en niet een bedrijf dat beslissingen neemt op basis van financiële overwegingen zoals sommige van zijn concurrenten.

  • Nieuws en trends

    Geen reclamevrije AI-chats meer: ChatGPT toont nu advertenties in de VS

    van Debora Pape

In januari waarschuwde Dario Amodei, CEO van Anthropic, voor de gevaren van AI op zijn blog. In februari raakte Anthropic in een hoogoplopend geschil met de Amerikaanse overheid toen het weigerde exclusief met het leger samen te werken. De reden: AI zou gebruikt kunnen worden voor massasurveillance en geautomatiseerde militaire aanvallen. Anthropic stelt dat AI hier nog niet klaar voor is. Het contract voor de deal werd daarom gegund aan concurrent OpenAI.

Een paar dagen geleden veroorzaakte Anthropic ook ophef omdat het bedrijf zijn nieuw ontwikkelde AI Claude Mythos niet openbaar wil maken: Mythos kan blijkbaar extreem betrouwbaar gevaarlijke kwetsbaarheden in IT-systemen opsporen. Dit is een goede zaak voor beveiligingsexperts, maar in de verkeerde handen is Mythos een gevaarlijk hulpmiddel. Dat Anthropic niet 100 procent kan beveiligen wie toegang krijgt tot Mythos, blijkt uit recent nieuws.

Omslagfoto: Shutterstock/foto voor alles

3 mensen vinden dit artikel leuk


User Avatar
User Avatar

Voelt zich net zo thuis voor de spelcomputer als in de hangmat in de tuin. Houdt onder andere van het Romeinse Rijk, containerschepen en sciencefictionboeken. Bovenal speurt hij naar news uit de IT-sector en slimme dingen.


Achtergrond

Interessante feiten uit de wereld van producten, een kijkje achter de schermen van fabrikanten en portretten van interessante mensen.

Alles tonen

Deze artikelen kunnen je ook interesseren

  • Achtergrond

    Nieuw AI-model brengt IT-beveiliging in gevaar en verhoogt deze tegelijkertijd

    van David Lee

  • Achtergrond

    Agenten in plaats van chatbots: waarom OpenClaw op dit moment iedereen elektriseert

    van Luca Fontana

  • Achtergrond

    Digitale omnibus: EU wil digitale wetten reorganiseren

    van Florian Bodoky

2 opmerkingen

Avatar
later