LOKA: De Nieuwe Standaard voor Autonome AI Agents

LOKA: De Nieuwe Standaard voor Autonome AI Agents

De interoperabiliteit tussen agenten krijgt steeds meer aandacht, maar organisaties blijven nieuwe protocollen voorstellen terwijl de industrie uitzoekt welke normen te adopteren. Een groep onderzoekers van Carnegie Mellon University heeft een nieuw interoperabiliteitsprotocol voorgesteld dat de identiteit, verantwoordelijkheid en ethiek van autonome AI-agents regelt. Layered Orchestration for Knowledgeful Agents, of LOKA, zou zich kunnen voegen bij andere voorgestelde normen zoals Google's Agent2Agent (A2A) en het Model Context Protocol (MCP) van Anthropic.

De Noodzaak van Standaardisatie

In een recent artikel merkten de onderzoekers op dat de opkomst van AI-agents de noodzaak onderstreept om hen te reguleren. "Naarmate hun aanwezigheid toeneemt, wordt de behoefte aan een gestandaardiseerd kader voor het reguleren van hun interacties steeds belangrijker," schreven de onderzoekers. "Ondanks hun groeiende alomtegenwoordigheid opereren AI-agents vaak binnen gescheiden systemen, zonder een gemeenschappelijk protocol voor communicatie, ethische afweging en naleving van juridische voorschriften. Deze fragmentatie brengt aanzienlijke risico's met zich mee, zoals interoperabiliteitsproblemen, ethische misalignementen en lacunes in verantwoordelijkheid."

De Oplossing: LOKA

Om deze problemen aan te pakken, stellen de onderzoekers het open-source LOKA voor, dat agents in staat zou stellen hun identiteit te bewijzen, "semantisch rijke, ethisch geannoteerde berichten uit te wisselen," verantwoordelijkheid toe te voegen en ethische governance tot stand te brengen gedurende het besluitvormingsproces van de agent. LOKA bouwt voort op wat de onderzoekers beschrijven als een Universele Agent Identiteitslaag, een framework dat agents een unieke en verifieerbare identiteit toekent.

De Fundamenten van LOKA

“We zien LOKA als een fundamentele architectuur en een oproep om de kernelementen—identiteit, intentie, vertrouwen en ethisch consensus—te heroverwegen die de interacties van agents zouden moeten onderbouwen. Aangezien het bereik van AI-agents zich uitbreidt, is het cruciaal om te beoordelen of onze bestaande infrastructuur deze overgang op een verantwoorde manier kan faciliteren,” vertelde Rajesh Ranjan, een van de onderzoekers, aan een tech publicatie.

De Laagstructuur van LOKA

LOKA werkt als een gelaagde stack. De eerste laag draait om identiteit, die vastlegt wat de agent is. Dit omvat een gedecentraliseerde identificator of een "unieke, cryptografisch verifieerbare ID." Dit zou gebruikers en andere agents in staat stellen de identiteit van de agent te verifiëren. De volgende laag is de communicatielaag, waar de agent een andere agent informeert over zijn intentie en de taak die hij moet voltooien. Hierop volgt de ethische laag en de beveiligingslaag.

De Ethische Laag van LOKA

De ethische laag van LOKA legt vast hoe de agent zich gedraagt. Het omvat "een flexibele maar robuuste ethische besluitvormingsstructuur die agents in staat stelt zich aan te passen aan verschillende ethische normen, afhankelijk van de context waarin ze opereren." Het LOKA-protocol maakt gebruik van collectieve besluitvormingsmodellen, waardoor agents binnen het framework hun volgende stappen kunnen bepalen en kunnen beoordelen of deze stappen in overeenstemming zijn met de ethische en verantwoordelijke AI-normen.

Beveiliging binnen LOKA

Ondertussen maakt de beveiligingslaag gebruik van wat de onderzoekers beschrijven als "kwantum-resistente cryptografie." Wat LOKA onderscheidt, is dat het cruciale informatie vaststelt voor agents om met andere agents te communiceren en autonoom te opereren over verschillende systemen. LOKA zou nuttig kunnen zijn voor bedrijven om de veiligheid van agents die ze in de wereld inzetten te waarborgen en een traceerbare manier te bieden om te begrijpen hoe deze agents functioneren.

Vertaald met ChatGPT gpt-4o-mini