IBM's Visie op AI: De Uitdaging van het Kiezen van het Juiste Taalmodel voor Bedrijven

IBM's Visie op AI: De Uitdaging van het Kiezen van het Juiste Taalmodel voor Bedrijven

In de afgelopen 100 jaar heeft IBM vele technologische trends zien komen en gaan. Wat doorgaans wint, zijn technologieën waarbij keuzevrijheid bestaat.

Tijdens VB Transform 2025 vandaag, besprak Armand Ruiz, VP van AI Platform bij IBM, hoe Big Blue denkt over generatieve AI en hoe zijn zakelijke klanten de technologie daadwerkelijk inzetten. Een belangrijk thema dat Ruiz benadrukte, is dat het op dit moment niet gaat om het kiezen van een enkele leverancier van grote taalmodellen (LLM) of technologie. Steeds vaker wijzen zakelijke klanten systematisch strategieën met één leverancier af ten gunste van multi-model benaderingen die specifieke LLM's toewijzen aan gerichte gebruiksgevallen.

De Cybersecurity-First AI Model

IBM heeft zijn eigen open-source AI-modellen met de Granite-familie, maar positioneert deze technologie niet als de enige keuze, of zelfs de juiste keuze voor alle workloads. Dit gedrag van bedrijven stimuleert IBM om zichzelf niet te positioneren als een concurrent van fundamentmodellen, maar als wat Ruiz omschreef als een controlecentrum voor AI-workloads.

“Wanneer ik voor een klant zit, gebruiken ze alles waar ze toegang tot hebben, echt alles,” legde Ruiz uit. “Voor codering houden ze van Anthropic en voor andere gebruiksgevallen, zoals redeneren, gebruiken ze o3. Voor LLM-aanpassing met hun eigen data en finetuning kiezen ze ofwel onze Granite-serie of Mistral met hun kleine modellen, of zelfs Llama… het gaat erom het LLM te matchen met de juiste gebruiksgevallen. En dan helpen wij hen ook met aanbevelingen.”

De Multi-LLM Gateway Strategie

IBM's reactie op deze marktrealiteit is een nieuw vrijgegeven modelgateway die bedrijven een enkele API biedt om tussen verschillende LLM's te schakelen terwijl ze toezicht en governance over alle implementaties behouden.

De technische architectuur stelt klanten in staat om open-source modellen op hun eigen inferentiestack te draaien voor gevoelige gebruiksgevallen, terwijl ze tegelijkertijd toegang hebben tot publieke API's zoals AWS Bedrock of Google Cloud's Gemini voor minder kritische toepassingen.

“Die gateway biedt onze klanten een enkele laag met een enkele API om van het ene LLM naar het andere LLM te schakelen en toezicht en governance gedurende het hele proces toe te voegen,” zei Ruiz.

Een Tegengestelde Benadering van Leveranciersstrategieën

Deze aanpak staat in directe tegenstelling tot de gebruikelijke leveranciersstrategie om klanten in gesloten ecosystemen te vergrendelen. IBM is niet de enige die een multi-leverancier benadering hanteert voor modelselectie. Meerdere tools zijn de afgelopen maanden verschenen voor modelrouting, die erop gericht zijn workloads naar het juiste model te leiden.

De Opkomst van Agent Orchestratieprotocollen

Naast multi-model management pakt IBM de opkomende uitdaging van communicatie tussen agents aan via open protocollen. Het bedrijf heeft ACP (Agent Communication Protocol) ontwikkeld en dit bijgedragen aan de Linux Foundation. ACP is een concurrentiële inspanning ten opzichte van Google’s Agent2Agent (A2A) protocol, dat gericht is op het standaardiseren van agentcommunicatie.

De ontwikkeling van deze protocollen is cruciaal voor de toekomst van AI-gestuurde systemen, waarin verschillende agents effectief moeten samenwerken om complexe taken uit te voeren. Dit benadrukt de noodzaak voor interoperabiliteit tussen verschillende AI-modellen en systemen, wat bedrijven in staat stelt om hun AI-strategieën te optimaliseren.

Vertaald met ChatGPT gpt-4o-mini