AI-agenten stuiten op een aansprakelijkheidsmuur: Mixus heeft een plan met menselijke toezicht
Terwijl bedrijven de uitdagingen aangaan van het inzetten van AI-agenten in kritieke toepassingen, komt er een nieuw, pragmatisch model op dat mensen weer controle geeft als strategische waarborg tegen AI-fouten.
Een voorbeeld hiervan is Mixus, een platform dat een "collega-in-de-loop" benadering hanteert om AI-agenten betrouwbaar te maken voor missie-kritisch werk.
Het Cybersecurity-First AI Model
Deze benadering is een reactie op het groeiende bewijs dat volledig autonome agenten een riskante gok zijn.
De hoge kosten van ongecontroleerde AI
Het probleem van AI-hallucinaties is een tastbaar risico geworden nu bedrijven AI-toepassingen verkennen. In een recent voorval zag de AI-aangedreven code-editor Cursor dat zijn eigen ondersteuningsbot een valse beleidsregel uitvond die abonnementen beperkte, wat leidde tot een golf van openbare annuleringen door klanten.
Evenzo heeft de fintechbedrijf Klarna beroemd zijn koers omgekeerd wat betreft het vervangen van klantenservicemedewerkers door AI, nadat het toegaf dat deze stap leidde tot een lagere kwaliteit. In een verontrustender geval adviseerde de AI-aangedreven chatbot van New York City ondernemers om betrokken te raken bij illegale praktijken, wat de catastrofale nalevingsrisico's van ongecontroleerde agenten onderstreept.
Deze incidenten zijn symptomen van een grotere capaciteitskloof. Volgens een onderzoeksrapport van Salesforce uit mei 2025 slagen de huidige toonaangevende agenten slechts 58% van de tijd bij eenstaps taken en slechts 35% van de tijd bij meerstaps taken, wat wijst op "een significante kloof tussen de huidige mogelijkheden van LLM's en de veelzijdige eisen van reële bedrijfsomgevingen."
Het collega-in-de-loop model
Om deze kloof te overbruggen, richt een nieuwe aanpak zich op gestructureerd menselijk toezicht. "Een AI-agent moet handelen op jouw aanwijzing en namens jou," vertelde Mixus medeoprichter Elliot Katz aan VentureBeat. "Maar zonder ingebouwd organisatorisch toezicht creëren volledig autonome agenten vaak meer problemen dan ze oplossen."
Deze filosofie ligt ten grondslag aan het collega-in-de-loop model van Mixus, dat menselijke verificatie direct in geautomatiseerde workflows integreert. Een grote retailer kan bijvoorbeeld wekelijks rapporten ontvangen van duizenden winkels die belangrijke operationele gegevens bevatten (bijvoorbeeld verkoopvolumes, arbeidsuren, productiviteitsratio's, compensatieverzoeken van het hoofdkantoor). Menselijke analisten moeten uren besteden aan het handmatig bekijken van de gegevens en beslissingen nemen op basis van heuristieken. Met Mixus automatiseert de AI-agent het zware werk door complexe patronen te analyseren en afwijkingen zoals ongebruikelijk hoge salarisverzoeken of productiviteitsuitbijters te markeren.
Menselijke goedkeuring bij risicovolle beslissingen
Voor beslissingen met hoge inzet, zoals betalingen of beleidsinbreuken — workflows die door een menselijke gebruiker zijn gedefinieerd als "hoog risico" — pauzeert de agent en vereist menselijke goedkeuring voordat hij verder gaat. De verdeling van taken tussen AI en mensen is geïntegreerd in het proces van het creëren van de agent.
"Deze benadering betekent dat mensen alleen betrokken raken wanneer hun expertise daadwerkelijk waarde toevoegt — typisch in de kritieke 5-10% van beslissingen die een significante impact kunnen hebben — terwijl de overige 90-95% van de routinetaken automatisch verlopen," zei Katz. "Je krijgt de snelheid van volledige automatisering voor standaardoperaties, maar menselijke controle treedt in werking wanneer dat nodig is."
Met deze aanpak kunnen bedrijven de voordelen van AI benutten zonder volledig afhankelijk te zijn van de technologie, wat hen in staat stelt om risico's te beheersen en tegelijkertijd efficiënt te blijven werken.
Vertaald met ChatGPT gpt-4o-mini