DeepSeek R1-0528: Krachtige open source uitdaging voor OpenAI o3 en Google Gemini 2.5 Pro
De walvis is terug.
Na de wereldwijde opschudding in de AI- en zakenwereld eerder dit jaar met de lancering van het open source redeneer-AI-model R1 op 20 januari, heeft de Chinese startup DeepSeek - een spin-off van het eerder lokaal bekende Hong Kongse bedrijf High-Flyer Capital Management - de DeepSeek R1-0528 uitgebracht. Deze belangrijke update brengt het gratis en open model van DeepSeek bijna gelijk in redeneercapaciteiten met propriëtaire betaalde modellen zoals OpenAI's o3 en Google Gemini 2.5 Pro.
Wat is nieuw in R1-0528?
Deze update is bedoeld om betere prestaties te leveren bij complexe redeneertaken in wiskunde, wetenschap, zaken en programmeren. Daarnaast zijn er verbeterde functies voor ontwikkelaars en onderzoekers.
Net als zijn voorganger is DeepSeek-R1-0528 beschikbaar onder de toegankelijke en open MIT-licentie, die commercieel gebruik ondersteunt en ontwikkelaars in staat stelt het model aan te passen aan hun behoeften.
De open-source modelgewichten zijn beschikbaar via de AI-code deelgemeenschap Hugging Face, en gedetailleerde documentatie wordt aangeboden voor degenen die lokaal willen implementeren of integreren via de DeepSeek API.
Bestaande gebruikers van de DeepSeek API zullen automatisch hun modelinvoeringen bijgewerkt krijgen naar R1-0528 zonder extra kosten. De huidige kosten voor de DeepSeek API bedragen $0,14 per 1 miljoen invoertokens tijdens reguliere uren van 20:30 tot 12:30 (dit daalt naar $0,035 tijdens kortingstijden). De output voor 1 miljoen tokens is constant geprijsd op $2,19.
Voor degenen die het model lokaal willen draaien, heeft DeepSeek gedetailleerde instructies gepubliceerd op zijn GitHub-repository. Het bedrijf moedigt de gemeenschap ook aan om feedback en vragen te sturen via hun service-e-mail.
Individuele gebruikers kunnen het gratis uitproberen via de website van DeepSeek, hoewel je een telefoonnummer of toegang tot een Google-account moet verstrekken om in te loggen.
Verbeterde redeneercapaciteiten en benchmarkprestaties
In het hart van de update liggen aanzienlijke verbeteringen in het vermogen van het model om uitdagende redeneertaken aan te pakken.
DeepSeek legt in zijn nieuwe modelkaart op Hugging Face uit dat deze verbeteringen voortkomen uit het gebruik van verhoogde rekenkracht en het toepassen van algoritmische optimalisaties na de training. Deze aanpak heeft geleid tot opmerkelijke verbeteringen in verschillende benchmarks.
In de AIME 2025-test bijvoorbeeld, steeg de nauwkeurigheid van DeepSeek-R1-0528 van 70% naar 87,5%, wat wijst op diepere redeneerprocessen die nu gemiddeld 23.000 tokens per vraag vereisen in vergelijking met 12.000 in de vorige versie.
De programmeerprestaties zagen ook een boost, met een nauwkeurigheid op de LiveCodeBench dataset die steeg van 63,5% naar 73,3%. Op de veeleisende test “Humanity’s Last Exam” meer dan verdubbelde de prestatie, van 8,5% naar 17,7%.
Deze vooruitgangen brengen DeepSeek-R1-0528 dichter bij de prestaties van gevestigde modellen zoals OpenAI's o3 en Gemini 2.5 Pro.
Vertaald met ChatGPT gpt-4o-mini