Veilig schalen van agentic AI — en het voorkomen van de volgende grote beveiligingsinbreuk

Veilig schalen van agentic AI — en het voorkomen van de volgende grote beveiligingsinbreuk

Er is een groeiende kloof tussen de ambities op het gebied van AI en de operationele gereedheid, terwijl bedrijven zich haasten om waarde te bewijzen met AI voordat hun concurrenten dat doen. In tal van organisaties worden steeds meer AI-agents ingezet en opereren ze zonder de nodige richtlijnen, en dat zal vroeg of laat grote gevolgen hebben, zegt Rory Blundell, CEO van Gravitee.

“Organisaties haasten zich om AI-agents te implementeren zonder de noodzakelijke beveiligingsstructuren of gestructureerde onboardingprocessen,” legt Blundell uit. “Als gevolg hiervan geloven we dat er een grote kans is dat er binnen een paar jaar een grote datalek zal plaatsvinden door een agent die buiten zijn bedoelde taken handelt, hetzij onbewust of door nalatigheid van zijn menselijke operators. Dit is een risico waar bedrijven nu proactief mee aan de slag moeten, voordat het te laat is.”

Volgens de recente State of Agentic AI-enquête van Gravitee gebruikt 72% van de organisaties al agentic AI-systemen. Daarnaast noemt 75% van de respondenten governance als hun grootste zorg. Veel wereldwijde bedrijfsleiders begrijpen echter nog steeds niet volledig de reikwijdte van de risico's die inherent zijn aan hun experimenten met agents, vooral naarmate het aantal inzetbare agents toeneemt.

De risico's van versnelde agentuitbreiding

De uitdagingen van agentuitbreiding echoën nu de vroege dagen van API's: individuele teams zetten hun eigen agents op om specifieke taken aan te pakken, van chatbots tot workflowautomatisering, maar zonder een gecentraliseerd plan. Al snel interageren agents met LLM's, triggeren ze acties of hebben ze toegang tot gevoelige tools en gegevens, allemaal zonder gedeelde toezicht of zicht op prestaties, beveiligingsstatus of kosten, en de gevolgen kunnen verstrekkend zijn.

“Je krijgt precies dezelfde uitdaging als die je had met services en microservices 10 of 15 jaar geleden,” zegt Blundell. “Naarmate er meer agents worden gecreëerd zonder gecentraliseerde controle, wordt het bijna onmogelijk om hun gedrag te monitoren, ervoor te zorgen dat ze efficiënt opereren, of kritieke beveiliging te handhaven in alle interacties die voortdurend plaatsvinden tussen tools, LLM's en agents. Dan heb je slecht gemonitorde agents met conflicterende protocollen en ongecontroleerd gedrag die de snelheid van innovatie belemmeren, systemen verstoppen en daadwerkelijk inefficiënties veroorzaken in plaats van ze op te lossen.”

Snelheid versus innovatie

Lang gevestigde ondernemingen met tientallen jaren aan pre-AI-beveiligings-, governance- en controlemaatregelen hebben een andere uitdaging: het balanceren van strikte veiligheidsprotocollen voor agents en het niet worden ingehaald door concurrenten die sneller en wendbaarder zijn, of agents op de markt gooien en kijken wat blijft hangen. Die bedrijven die zich haasten om de strijd aan te gaan, kunnen zichzelf blootstellen aan grote risico's, maar interessant genoeg, ze boeken ook veel sneller vooruitgang, zegt Blundell.

“Wanneer je nog niet de vereiste beveiligingsmaatregelen hebt of een goed gestructureerde manier om meer agents in te voeren, ga je jezelf censureren, en zal de snelheid afnemen,” zegt Blundell. “Je loopt daarom het risico dat het bedrijf niet kan bereiken wat het zou moeten bereiken, en je loopt het risico op de algehele voorspoed van je bedrijf. Andere bedrijven die deze ballast niet hebben, zullen in staat zijn om sneller vooruit te gaan dan jij en dit is iets waar we bedrijven bij willen helpen.”

De rol van gecentraliseerde governance en controle

Het is nu mogelijk om al deze uitdagingen tegelijk aan te pakken met een gecentraliseerde governance-laag die zicht biedt op een heel agentic systeem via een uniforme interface. Het implementeren van een oplossing zoals de Agent Mesh van Gravitee kan de innovatie bijna onmiddellijk aanzienlijk versnellen, vooral zodra een organisatie prestatieproblemen veroorzaakt door overbelasting oplost. Door deze centrale aanpak kunnen bedrijven niet alleen hun agents beter beheren, maar ook de risico's van beveiligingsinbreuken minimaliseren en tegelijkertijd de snelheid van innovatie verbeteren.

Het is van cruciaal belang dat organisaties nu de juiste stappen ondernemen om een veilige en gecontroleerde implementatie van agentic AI te waarborgen. Anders lopen ze het risico de controle te verliezen over hun AI-systemen en de bijbehorende risico's, wat uiteindelijk kan leiden tot aanzienlijke schade aan hun reputatie en bedrijfsvoering.

Vertaald met ChatGPT gpt-4o-mini