Nieuwe startup haalt $15 miljoen op voor verzekering van AI-agenten en veilige inzet voor startups

Nieuwe startup haalt $15 miljoen op voor verzekering van AI-agenten en veilige inzet voor startups

Een nieuwe startup, opgericht door een vroege medewerker van Anthropic, heeft $15 miljoen opgehaald om een van de meest dringende uitdagingen aan te pakken waarmee bedrijven vandaag de dag worden geconfronteerd: hoe kunstmatige intelligentiesystemen kunnen worden ingezet zonder het risico op catastrofale mislukkingen die hun bedrijf kunnen schaden.

De Artificial Intelligence Underwriting Company (AIUC), die vandaag publiekelijk lanceert, combineert verzekeringsdekking met strikte veiligheidsnormen en onafhankelijke audits om bedrijven vertrouwen te geven in het inzetten van AI-agenten — autonome softwaresystemen die complexe taken kunnen uitvoeren zoals klantenservice, programmeren en data-analyse.

De financieringsronde werd geleid door Nat Friedman, voormalig CEO van GitHub, via zijn bedrijf NFDG, met deelname van Emergence Capital, Terrain en verschillende opmerkelijke angel-investeerders, waaronder Ben Mann, medeoprichter van Anthropic, en voormalige chief information security officers bij Google Cloud en MongoDB.

“Bedrijven balanceren op een slappe koord,” zei Rune Kvist, medeoprichter en CEO van AIUC, in een interview. “Aan de ene kant kun je aan de zijlijn blijven staan en toekijken hoe je concurrenten je irrelevant maken, of je kunt je in de strijd gooien en het risico lopen om in het nieuws te komen omdat je chatbot Nazi-propaganda verspreidt, je terugbetalingsbeleid hallucineert of discrimineert tegen de mensen die je probeert aan te werven.”

Een fundamentele vertrouwenskloof overbruggen

De aanpak van het bedrijf pakt een fundamentele vertrouwenskloof aan die is ontstaan naarmate de mogelijkheden van AI snel toenemen. Terwijl AI-systemen nu taken kunnen uitvoeren die vergelijkbaar zijn met het redeneervermogen van menselijke bachelorstudenten, blijven veel bedrijven terughoudend om deze in te zetten vanwege zorgen over onvoorspelbare mislukkingen, aansprakelijkheidskwesties en reputatierisico's.

Veiligheidsnormen die gelijke tred houden met AI

De oplossing van AIUC richt zich op het creëren van wat Kvist “SOC 2 voor AI-agenten” noemt — een uitgebreid veiligheids- en risikokader dat specifiek is ontworpen voor kunstmatige intelligentiesystemen. SOC 2 is de veelgebruikte cybersecuritynorm die bedrijven doorgaans van leveranciers eisen voordat ze gevoelige gegevens delen.

“SOC 2 is een standaard voor cybersecurity die alle beste praktijken specificeert die je moet aannemen in voldoende detail, zodat een derde partij kan komen controleren of een bedrijf aan die vereisten voldoet,” legt Kvist uit. “Maar het zegt niets over AI. Er zijn talloze nieuwe vragen, zoals: hoe ga je om met mijn trainingsdata? Wat met hallucinaties? Wat met deze toolaanroepen?”

De AIUC-1 standaard richt zich op zes belangrijke categorieën: veiligheid, beveiliging, betrouwbaarheid, verantwoordelijkheid, dataprivacy en maatschappelijke risico's. Het kader vereist dat AI-bedrijven specifieke waarborgen implementeren, van monitoringsystemen tot incidentresponsplannen, die onafhankelijk kunnen worden geverifieerd door middel van rigoureuze tests.

“We nemen deze agenten en testen ze uitgebreid, waarbij we klantenservice als voorbeeld gebruiken omdat dat gemakkelijk te begrijpen is. Dit stelt ons in staat om de effectiviteit en veiligheid van AI-agenten te evalueren, zodat bedrijven gerustgesteld kunnen worden bij hun inzet,” voegt Kvist toe.

Vertaald met ChatGPT gpt-4o-mini