Alibaba lanceert open-source Qwen3-model dat OpenAI o1 en DeepSeek R1 overtreft

Alibaba lanceert open-source Qwen3-model dat OpenAI o1 en DeepSeek R1 overtreft

De Chinese e-commerce- en webgigant Alibaba's Qwen-team heeft officieel een nieuwe serie open-source AI grote taal multimodale modellen gelanceerd, bekend als Qwen3. Deze modellen behoren tot de meest geavanceerde open modellen en benaderen de prestaties van propriëtaire modellen van bedrijven zoals OpenAI en Google. Deze ontwikkeling markeert een belangrijke stap in de wereld van AI, vooral gezien de groeiende vraag naar krachtige en toegankelijke AI-tools.

Wat zijn de Qwen3-modellen?

De Qwen3-serie omvat twee "mixture-of-experts"-modellen en zes dense modellen, wat in totaal acht nieuwe modellen oplevert. De "mixture-of-experts"-benadering houdt in dat verschillende gespecialiseerde modeltypen worden gecombineerd in één model. Alleen de relevante modellen voor de specifieke taak worden geactiveerd wanneer dat nodig is in de interne instellingen van het model, ook wel parameters genoemd. Deze aanpak is populair gemaakt door de Franse open-source AI-startup Mistral.

Prestaties van het Qwen3-model

Volgens het Qwen-team overtreft de 235 miljard parameters versie van Qwen3, codenaam A22B, het open-source R1 van DeepSeek en het propriëtaire o1 van OpenAI op belangrijke externe benchmarks, waaronder ArenaHard. Deze benchmark omvat 500 gebruikersvragen op het gebied van software-engineering en wiskunde en benadert de prestaties van het nieuwe, propriëtaire Google Gemini 2.5-Pro. De gegevens van de benchmarks positioneren Qwen3-235B-A22B als een van de krachtigste publiek beschikbare modellen, met prestaties die gelijkwaardig of superieur zijn aan die van belangrijke industriële aanbiedingen.

Hybride redeneermodellen van Qwen3

De Qwen3-modellen zijn getraind om zogenaamde "hybride redeneermogelijkheden" of "dynamische redeneermogelijkheden" te bieden. Dit stelt gebruikers in staat om te schakelen tussen snelle, nauwkeurige antwoorden en meer tijdrovende en rekenintensievere redeneerstappen. Dit is vergelijkbaar met de "o"-serie van OpenAI, die gericht is op moeilijkere vragen in de wetenschap, wiskunde, techniek en andere gespecialiseerde gebieden. Met Qwen3 kunnen gebruikers de intensieve "Thinking Mode" inschakelen via een knop op de Qwen Chat-website of door specifieke prompts te gebruiken, zoals /think of /no_think, wanneer ze het model lokaal of via de API inzetten.

Toegang en gebruik van Qwen3-modellen

Gebruikers kunnen nu deze modellen toegankelijk maken en inzetten via platforms zoals Hugging Face, ModelScope, Kaggle en GitHub. Daarnaast kunnen ze direct met de modellen interactie hebben via de Qwen Chat-webinterface en mobiele applicaties. De release omvat zowel Mixture of Experts (MoE)- als dense modellen, die allemaal beschikbaar zijn onder de Apache 2.0 open-source licentie. Dit biedt ontwikkelaars en onderzoekers de kans om de kracht van deze modellen te benutten voor hun eigen projecten.

Ervaringen met de Qwen Chat-website

In mijn beperkte gebruik van de Qwen Chat-website tot nu toe, kon het model beelden relatief snel genereren en een behoorlijke naleving van prompts tonen, vooral bij het integreren van tekst in het beeld op een natuurlijke manier. Echter, de website vroeg me regelmatig om in te loggen en was onderhevig aan de gebruikelijke Chinese inhoudsbeperkingen, zoals het verbod op prompts of antwoorden die verband houden met de protesten op het Tiananmen-plein.

Diverse modellen in de Qwen3-serie

Naast de MoE-aanbiedingen omvat Qwen3 dense modellen in verschillende schalen: Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B en Qwen3-0.6B. Deze modellen variëren in grootte en architectuur, waardoor gebruikers de mogelijkheid hebben om te kiezen wat het beste past bij hun diverse behoeften en computatiecapaciteiten. Dit biedt een flexibele benadering voor ontwikkelaars die krachtige AI-oplossingen zoeken.

Vertaald met ChatGPT gpt-4o-mini