Anthropic lanceert Claude voor Chrome in beperkte bèta, maar promptinjectie-aanvallen blijven een grote zorg
Anthropic is begonnen met het testen van een browserextensie voor Chrome die het mogelijk maakt dat de Claude AI-assistent de controle over de webbrowsers van gebruikers overneemt. Dit markeert de entree van het bedrijf in een steeds drukkere en potentieel riskante arena, waar kunstmatige intelligentiesystemen direct de computerinterfaces kunnen manipuleren.
Het in San Francisco gevestigde AI-bedrijf heeft dinsdag aangekondigd dat het "Claude voor Chrome" zal testen met 1.000 vertrouwde gebruikers op het premium Max-abonnement. Deze beperkte uitrol is gepositioneerd als een onderzoeksvoorvertoning, bedoeld om significante beveiligingskwetsbaarheden aan te pakken voordat er een bredere uitrol plaatsvindt. Deze voorzichtige aanpak staat in schril contrast met de meer agressieve stappen van concurrenten zoals OpenAI en Microsoft, die vergelijkbare AI-systemen voor het besturen van computers al aan een breder publiek hebben vrijgegeven.
De Verschuiving in de AI-industrie
De aankondiging benadrukt hoe snel de AI-industrie is verschoven van het ontwikkelen van chatbots die simpelweg vragen beantwoorden, naar het creëren van "agentische" systemen die in staat zijn om autonoom complexe, meerstaps taken uit te voeren binnen softwareapplicaties. Deze evolutie vertegenwoordigt wat veel experts beschouwen als de volgende grens in kunstmatige intelligentie — en potentieel een van de meest lucratieve, nu bedrijven wedijveren om alles te automatiseren, van onkostennota's tot vakantieplanning.
Hoe AI-agents je browser kunnen besturen
Claude voor Chrome stelt gebruikers in staat om de AI instructies te geven om acties uit te voeren namens hen binnen webbrowsers. Dit omvat het plannen van vergaderingen door agenda's te controleren en beschikbaarheid van restaurants te cross-refereren, of het beheren van e-mailinboxen en het afhandelen van routinematige administratieve taken. Het systeem kan zien wat er op het scherm wordt weergegeven, knoppen aanklikken, formulieren invullen en navigeren tussen websites — in wezen het nabootsen van hoe mensen omgaan met webgebaseerde software.
De Beperkingen van AI Schaling
De aankondiging komt op een moment dat de AI-industrie te maken heeft met uitdagingen zoals energiebeperkingen, stijgende kosten voor tokens en vertragingen bij inferentie. Deze factoren herdefiniëren de manier waarop bedrijven enterprise AI benaderen. Het is cruciaal voor teams om energie om te zetten in een strategisch voordeel, efficiënte inferentie te architecteren voor daadwerkelijke doorvoerswinsten, en concurrerende ROI te ontgrendelen met duurzame AI-systemen.
Veiligheidszorgen bij het gebruik van AI
Volgens Anthropic is het gebruik van AI in browsers onvermijdelijk: er gebeurt zoveel werk in browsers dat het geven van Claude de mogelijkheid om te zien wat je bekijkt, knoppen aan te klikken en formulieren in te vullen het veel nuttiger zal maken. Echter, interne tests van het bedrijf onthulden zorgwekkende beveiligingskwetsbaarheden die de dubbelzijdige aard van het geven van AI-systemen directe controle over gebruikersinterfaces benadrukken.
De Gevaren van Promptinjectie
In adversariële tests ontdekte Anthropic dat kwaadaardige actoren verborgen instructies in websites, e-mails of documenten konden inbedden om AI-systemen te misleiden tot schadelijke acties zonder dat gebruikers dit wisten — een techniek die promptinjectie wordt genoemd. Zonder veiligheidsmaatregelen slaagden deze aanvallen 23,6% van de tijd wanneer ze gericht waren op de AI die browsers gebruikte.
Concrete Voorbeelden van Risico's
In een voorbeeld gaf een kwaadaardige e-mail, die zich voordeed als een beveiligingsinstructie, Claude de opdracht om de e-mails van de gebruiker te verwijderen "voor mailboxhygiëne", wat de AI zonder bevestiging uitvoerde. Dit is geen speculatie: we hebben "red-teaming" experimenten uitgevoerd om te testen hoe kwetsbaar het systeem daadwerkelijk is.
De uitdagingen die gepaard gaan met het veilig implementeren van deze technologieën zijn aanzienlijk en vereisen aandacht van zowel ontwikkelaars als eindgebruikers. Terwijl de AI-innovaties zich blijven ontwikkelen, is het essentieel dat de beveiliging voorop staat om het vertrouwen van gebruikers te waarborgen.
Vertaald met ChatGPT gpt-4o-mini