Ontvang je persoonlijke AI-toolkit. Plan een gratis adviesgesprek.

Taalmodellen

9 mrt 2025

9 mrt 2025

9 mrt 2025

De beste grote AI taalmodellen (LLMs) in 2025

De beste grote AI taalmodellen (LLMs) in 2025

De beste grote AI taalmodellen (LLMs) in 2025

Geschreven door

Jayden Te Vrede

Jayden Te Vrede

Jayden Te Vrede

Grote AI taalmodellen

Dit zijn de meest significante, interessante en populaire LLMs die je nu kunt gebruiken.

Grote taalmodellen zijn overal

Grote taalmodellen (LLMs) zijn de belangrijkste vorm van AI voor tekstverwerking, en ze zijn inmiddels overal te vinden.

ChatGPT is het bekendste voorbeeld van een tool die openlijk gebruik maakt van een LLM, maar Google gebruikt er een om AI-antwoorden in zoekopdrachten te genereren, en Apple introduceerde eind vorig jaar de LLM-aangedreven Apple Intelligence op zijn apparaten. En dat is nog voordat je alle andere chatbots, tekstgeneratoren en andere tools die op LLMs zijn gebouwd in overweging neemt.

LLMs worden sinds eind jaren 2010 bestudeerd in onderzoekslaboratoria, maar na de lancering van ChatGPT (dat de kracht van GPT toonde), zijn ze uit het lab gebarsten en de echte wereld in gekomen.

We zitten nu in de vijfde en zesde generatie van LLMs, en daarmee worden ze steeds nuttiger en krachtiger. Redenerende modellen die extra tijd nemen om ingewikkelde problemen op te lossen, zijn de grootste verschuiving van het afgelopen jaar. Daarvoor was het de introductie van grote multimodale modellen (LMMs), die ook andere invoer- en uitvoermodaliteiten kunnen verwerken, zoals afbeeldingen, audio en video, naast tekst. Natuurlijk maakt het snelle tempo van deze ontwikkelingen alles nog ingewikkelder. Daarom zal ik hier enkele van de belangrijkste LLMs, LMMs en redenerende modellen die momenteel beschikbaar zijn uiteenzetten.

De beste LLMs

Er zijn tientallen belangrijke LLMs en honderden die om de een of andere reden significant zijn. Het zou bijna onmogelijk zijn om ze allemaal op te sommen, en het zou sowieso binnen enkele dagen achterhaald zijn vanwege de snelheid waarmee LLMs worden ontwikkeld.

(Ik update deze lijst nu voor het eerst in een paar maanden, en er zijn al veel nieuwe versies van modellen om over te praten - plus enkele nieuwe modellen om toe te voegen. De laatste keer dat ik de lijst bijwerkte, was o1 nog niet eens aangekondigd; nu hebben we o3!)

Neem het woord "beste" hier met een korreltje zout: ik heb geprobeerd de lijst te beperken door een lijst te bieden van de meest significante, interessante en populaire modellen, niet per se degene die het beste presteren op benchmarks (hoewel de meeste dat wel doen). Ik heb me ook voornamelijk gericht op LLMs, LMMs en redenerende modellen die je daadwerkelijk kunt gebruiken - in plaats van modellen die het onderwerp zijn van super interessante onderzoekspapers of alleen in marketingmateriaal worden genoemd - omdat we hier graag praktisch blijven.

LLM

Ontwikkelaar

Multimodaal?

Redenerend?

Toegang

GPT-4o

OpenAI

Ja

Nee

Chatbot en API

o3 en o1

OpenAI

Nee

Ja

Chatbot en API

Gemini

Google

Ja

Nee

Chatbot en API

Gemma

Google

Nee

Nee

Open

Llama

Meta

Nee

Nee

Chatbot en open

R1

DeepSeek

Nee

Ja

Chatbot, API en open

V3

DeepSeek

Nee

Nee

Chatbot, API en open

Claude

Anthropic

Ja

Ja

Chatbot en API

Command

Cohere

Nee

Nee

API

Nova

Amazon

Ja

Nee

API

Large 2

Mistral AI

Ja (Pixtral)

Nee

API

Qwen

Alibaba Cloud

Ja (Qwen2.5-VL)

Nee

Chatbot, API en open

Phi

Microsoft

Nee

Nee

Open

Grok

xAI

Nee

Ja

Chatbot en open

Wat is een LLM?

Een LLM, of groot taalmodel, is een AI-tekstgenerator voor algemene doeleinden. Het is wat er achter de schermen zit van alle AI-chatbots, AI-schrijfgeneratoren en de meeste andere door AI aangedreven functies zoals samengevatte zoekresultaten.

Ontdaan van fancy interfaces en andere workarounds, nemen LLMs een prompt en genereren ze een antwoord. De chatbots die op LLMs zijn gebouwd, zoeken niet naar trefwoorden om te antwoorden met een voorgeprogrammeerd antwoord - in plaats daarvan doen ze hun best om te begrijpen wat er wordt gevraagd en reageren ze op passende wijze.

Dit is waarom LLMs echt zijn doorgebroken: dezelfde modellen (met of zonder wat extra training) kunnen worden gebruikt om te reageren op vragen van klanten, marketingmateriaal te schrijven, vergadernotities samen te vatten en nog veel meer.

Maar LLMs kunnen alleen werken met tekst, wat verklaart waarom LMMs steeds populairder worden: zij kunnen afbeeldingen, handgeschreven notities, audio, video en meer verwerken. Veel van de grootste modellen zijn nu LMMs.

Wat is een open source LLM?

Er zijn drie grote categorieën LLMs: propriëtair, open en open source.

Propriëtaire modellen zoals GPT-4o en Claude 3.5 zijn enkele van de meest populaire en krachtige modellen die beschikbaar zijn, maar ze worden ontwikkeld en beheerd door particuliere bedrijven. De broncode, trainingsstrategieën, modelgewichten en zelfs details zoals het aantal parameters dat ze hebben, worden allemaal geheim gehouden. De enige manieren om toegang te krijgen tot deze modellen zijn via een chatbot of app die ermee is gebouwd, of via een API. Je kunt GPT-4o niet zomaar op je eigen server draaien.

Open en open source modellen zijn vrijer beschikbaar. Je kunt Llama 3, Gemma 2 en DeepSeek R1 downloaden van Hugging Face en andere modelplatforms en ze op je eigen apparaten draaien - en ze zelfs opnieuw trainen met je eigen gegevens om je eigen model te creëren. Ontwikkelaars kunnen hun eigen chatbots en apps bovenop deze modellen bouwen. Je kunt zelfs diep in zaken als de modelgewichten en systeemarchitectuur duiken om te begrijpen hoe ze werken (voor zover iemand dat kan).

Wat is dan het verschil tussen open en open source? Bedrijven zoals Meta en Google zeggen dat Llama 3 en Gemma 2 open zijn alsof het hetzelfde is als open source, maar er is een belangrijk onderscheid.

Open source licenties zijn ongelooflijk permissief. Meestal moet je ermee instemmen om alles wat je ermee bouwt ook open source te maken - en erkenning te geven aan de oorspronkelijke ontwikkelaars. Als je een miljardenbedrijf wilt bouwen op basis van open source software of een criminele chatbot wilt maken die mensen vertelt hoe ze een bank kunnen beroven, ben je daar volledig vrij in. De politie zou problemen kunnen hebben met het laatstgenoemde project, maar je zou geen softwarelicenties schenden.

Open licenties zijn nog steeds permissief, maar hebben enkele aanvullende beperkingen. De licentie van Llama 3 staat bijvoorbeeld commercieel gebruik toe tot 700 miljoen maandelijkse gebruikers en blokkeert bepaalde toepassingen. Jij of ik zouden er iets mee kunnen bouwen, maar Apple en Google niet. Op dezelfde manier verbiedt het verboden gebruiksbeleid van Gemma 2 onder andere "het faciliteren of aanmoedigen van gebruikers om welk type misdrijf dan ook te plegen." Begrijpelijkerwijs wil Google niet dat er onfatsoenlijke bots "powered by Google Gemma" in het nieuws komen.

Hoe werken LLMs?

Vroege LLMs, zoals GPT-1, vielen uit elkaar en begonnen na een paar zinnen onzin te genereren, maar de huidige LLMs, zoals GPT-4o, kunnen duizenden woorden genereren die allemaal logisch zijn.

Om dit punt te bereiken, werden LLMs getraind op enorme hoeveelheden data. De specifieke details verschillen een beetje tussen de verschillende LLMs - afhankelijk van hoe zorgvuldig de ontwikkelaars zijn om volledig de rechten te verwerven op de materialen die ze gebruiken - maar als algemene regel kun je aannemen dat ze zijn getraind op zoiets als het hele openbare internet, elk boek, elke krant en elk tijdschrift dat ooit is gepubliceerd, en de synthetische output van eerdere AI-modellen op zijn minst. Dit is waarom LLMs tekst kunnen genereren die zo gezaghebbend klinkt over zo'n breed scala aan onderwerpen.

Vanuit deze trainingsgegevens kunnen LLMs de relatie modelleren tussen verschillende woorden (of eigenlijk fracties van woorden, tokens genoemd) met behulp van hoogdimensionale vectoren. Dit is waar dingen zeer ingewikkeld en wiskundig worden, maar de basis is dat elke individuele token een unieke ID krijgt en dat vergelijkbare concepten worden gegroepeerd. Dit wordt vervolgens gebruikt om een neuraal netwerk te genereren, een soort meerlaags algoritme gebaseerd op hoe het menselijk brein werkt - en dat is de kern van elke LLM.

Het neurale netwerk heeft een invoerlaag, een uitvoerlaag en meerdere verborgen lagen, elk met meerdere knooppunten. Het zijn deze knooppunten die berekenen welke woorden moeten volgen op de invoer, en verschillende knooppunten hebben verschillende gewichten. Als de invoerreeks bijvoorbeeld het woord "Apple" bevat, moet het neurale netwerk beslissen om te volgen met iets als "Mac" of "iPad", iets als "taart" of "crumble", iets als "van Charli XCX", of iets heel anders. Wanneer we het hebben over hoeveel parameters een LLM heeft, vergelijken we in feite hoeveel lagen en knooppunten er zijn in het onderliggende neurale netwerk. Over het algemeen geldt: hoe meer knooppunten, hoe complexer de tekst die een model kan begrijpen en genereren.

LMMs zijn nog complexer omdat ze ook gegevens uit aanvullende modaliteiten moeten verwerken, maar ze worden doorgaans op dezelfde manier getraind en gestructureerd.

Natuurlijk klinkt een AI-model dat is getraind op het open internet met weinig of geen richting als een nachtmerrie. En het zou waarschijnlijk ook niet erg nuttig zijn, dus op dit punt ondergaan LLMs verdere training en fine-tuning om ze te sturen naar het genereren van veilige en nuttige antwoorden. Een van de belangrijkste manieren waarop dit werkt, is door de gewichten van de inputs en outputs van verschillende knooppunten aan te passen, hoewel er ook andere aspecten aan zijn.

Dit alles om te zeggen dat hoewel LLMs black boxes zijn, wat erin gebeurt geen magie is. Zodra je een beetje begrijpt hoe ze werken, is het gemakkelijk te zien waarom ze zo goed zijn in het beantwoorden van bepaalde soorten vragen. Het is ook gemakkelijk te begrijpen waarom ze de neiging hebben om willekeurige dingen te verzinnen (of te hallucineren).

Wat zijn redenerende modellen?

Redenerende modellen zoals OpenAI o3 en DeepSeek R1 zijn LLMs die zijn getraind om een reactie te genereren met behulp van Chain-of-Thought (CoT) redenering.

Wanneer ze een prompt krijgen, in plaats van zo snel mogelijk te antwoorden, breken ze het probleem op in meerdere eenvoudige stappen en proberen ze er doorheen te werken. Als ze problemen tegenkomen, kunnen ze opnieuw evalueren en problemen vanuit een andere hoek benaderen.

Dit soort redenering vereist meer computerresources, maar het leidt doorgaans tot krachtigere AI-modellen.

Waar kunnen LLMs voor worden gebruikt?

LLMs zijn vooral krachtig omdat ze kunnen worden gegeneraliseerd naar zoveel verschillende situaties en toepassingen. Hetzelfde kern-LLM (soms met wat fine-tuning) kan worden gebruikt om tientallen verschillende taken uit te voeren. Hoewel alles wat ze doen is gebaseerd op het genereren van tekst, veranderen de specifieke manieren waarop ze worden aangespoord om dit te doen, welke functies ze lijken te hebben.

Hier zijn enkele van de taken waarvoor LLMs vaak worden gebruikt:

  • Chatbots voor algemene doeleinden (zoals ChatGPT en Google Gemini)

  • Samenvatten van zoekresultaten en andere informatie van het web

  • Klantenservicechatbots die zijn getraind op de documenten en gegevens van je bedrijf

  • Vertalen van tekst van de ene taal naar de andere

  • Omzetten van tekst naar computercode, of van de ene taal naar de andere

  • Genereren van social media posts, blogberichten en ander marketingmateriaal

  • Sentimentanalyse

  • Content moderatie

  • Corrigeren en bewerken van schrijfwerk

  • Gegevensanalyse

En honderden andere dingen. We staan nog maar aan het begin van de huidige AI-revolutie.

Maar er zijn ook veel dingen die LLMs niet kunnen doen, maar die andere soorten AI-modellen wel kunnen. Enkele voorbeelden:

  • Afbeeldingen interpreteren

  • Afbeeldingen genereren

  • Bestanden converteren tussen verschillende formaten

  • Grafieken en diagrammen maken

  • Wiskunde en andere logische operaties uitvoeren

Natuurlijk lijken sommige LLMs en chatbots enkele van deze dingen te doen. Maar in de meeste gevallen is er een andere AI-dienst die helpt - of je gebruikt eigenlijk een LMM.

De beste LLMs in detail

GPT-4o

Ontwikkelaar: OpenAI

Parameters: Meer dan 175 miljard

Contextvenster: 128.000

Toegang: API

OpenAI's Generative Pre-trained Transformer (GPT) modellen hebben de laatste AI-hypecyclus opgestart. Er zijn momenteel twee hoofdmodellen beschikbaar: GPT-4o en GPT-4o mini. Beide zijn ook multimodale modellen, dus ze kunnen ook afbeeldingen en audio verwerken.

Alle verschillende versies van GPT zijn AI-modellen voor algemene doeleinden met een API, en ze worden gebruikt door een diverse reeks bedrijven - waaronder Microsoft, Duolingo, Stripe, Descript, Dropbox en Zapier - om talloze verschillende tools aan te drijven. Toch is ChatGPT waarschijnlijk de meest populaire demo van zijn mogelijkheden.

OpenAI is van plan om later dit jaar een krachtiger versie genaamd GPT-4.5 uit te brengen.

o3 en o1

Ontwikkelaar: OpenAI

Parameters: Meer dan 175 miljard

Contextvenster: 200.000

Toegang: API

OpenAI's o1-model was het eerste redenerende model. Sinds de lancering hebben OpenAI's redenerende modellen bijna elke benchmark en directe test overtroffen. Tot nu toe zijn er o3-mini, o1, o1-preview en o1-mini geweest, met o3 later dit jaar.

Net als GPT-4o zijn o1 en o3-mini beschikbaar via een API en ChatGPT. Gelukkig heeft OpenAI erkend dat al deze verschillende AI-modellen verwarrend worden en dat de naamgevingssystemen verschrikkelijk en onverenigbaar zijn. Op een gegeven moment in de toekomst zal het GPT-5 uitbrengen, dat de GPT- en redenerende modellen in één lijn zal combineren.

Gemini

Ontwikkelaar: Google

Parameters: Nano beschikbaar in 1,8 miljard en 3,25 miljard versies; andere onbekend

Contextvenster: Tot 2 miljoen

Toegang: API

Google Gemini is een familie van AI-modellen van Google. De zes modellen - Gemini 1.0 Nano, Gemini 2.0 Flash, Gemini 2.0 Flash Thinking, Gemini 2.0 Flash-Lite, Gemini 2.0 Pro en Gemini 1.0 Ultra - zijn ontworpen om op verschillende apparaten te werken, van smartphones tot speciale servers, en dekken een breed scala aan toepassingen. Gemini 2.0 Flash Thinking is Google's eerste redenerende model.

Hoewel in staat om tekst te genereren zoals een LLM, kunnen de Gemini-modellen ook van nature afbeeldingen, audio, video, code en andere soorten informatie verwerken. Ze zijn geoptimaliseerd voor een lang contextvenster, wat betekent dat ze grotere volumes tekst kunnen verwerken.

Gemini 2.0 Pro en 2.0 Flash drijven ook AI-functies in Google's apps aan, zoals Docs en Gmail, evenals Google's chatbot, die verwarrend genoeg ook Gemini heet. Google's Gemini-modellen zijn beschikbaar voor ontwikkelaars via Google AI Studio of Vertex AI.

Gemma

Ontwikkelaar: Google

Parameters: 2 miljard, 9 miljard en 27 miljard

Contextvenster: 8.200

Toegang: Open

Google Gemma is een familie van open AI-modellen van Google gebaseerd op hetzelfde onderzoek en dezelfde technologie die het gebruikte om Gemini te ontwikkelen. De nieuwste versie, Gemma 2, is beschikbaar in drie maten: 2 miljard, 9 miljard en 27 miljard parameters.

Llama

Ontwikkelaar: Meta

Parameters: 1 miljard, 3 miljard, 8 miljard, 11 miljard, 70 miljard, 90 miljard en 405 miljard

Contextvenster: 128.000

Toegang: Open

Llama 3 is een familie van open LLMs van Meta, het moederbedrijf van Facebook en Instagram. Er zijn momenteel zeven modellen verdeeld over Llama 3.1, Llama 3.2 en Llama 3.3.

Naast het aandrijven van de meeste AI-functies in Meta's apps, is de Llama "kudde" een van de meest populaire en krachtige open LLM-families, en je kunt de broncode zelf downloaden van GitHub. Omdat het gratis is voor onderzoek en commerciële toepassingen, gebruiken veel andere LLMs een Llama-model als basis.

Momenteel zijn de modellen in de line-up de tekstmodellen Llama 3.1 8B, Llama 3.1 405B en Llama 3.3 70B, en de multimodale Llama 3.2 1B, Llama 3.2 3B, Llama 3.2 11B en Llama 3.2 90B.

R1

Ontwikkelaar: DeepSeek

Parameters: 671 miljard

Contextvenster: 128.000

Toegang: Open, chatbot, API

DeepSeek R1 veroorzaakte een grote opschudding toen het werd gelanceerd. Het is een redenerend model dat net zo capabel is als OpenAI o1, maar het werd ontwikkeld door een Chinees techbedrijf met beperktere computerhardware op een veel kleiner budget en uitgebracht als een open model.

Ondanks deze indrukwekkende prestatie zijn de volledige implicaties van DeepSeek's computerbesparende innovaties nog niet gerealiseerd. Het blijft ook afwachten hoe toekomstige sancties het AI-bedrijf zullen beïnvloeden.

V3

Ontwikkelaar: DeepSeek

Parameters: 671 miljard

Contextvenster: 128.000

Toegang: Open, chatbot, API

DeepSeek V3 is DeepSeek's equivalent van GPT-4. Het is een state-of-the-art open LLM zonder redenerende of multimodale functies. Net als R1 werd het ontwikkeld met meer beperkte computerhardware en voor minder financiële investering dan typische LLMs.

Net als bij R1 blijft het onduidelijk hoe populair het de komende een of twee jaar zal blijken te zijn.

Claude

Ontwikkelaar: Anthropic

Parameters: Onbekend

Contextvenster: 200.000

Toegang: API

Claude is waarschijnlijk een van de belangrijkste concurrenten van GPT. De drie modellen - Claude 3.7 Sonnet, Claude 3.5 Haiku en Claude 3 Opus - zijn ontworpen om behulpzaam, eerlijk, onschadelijk en cruciaal, veilig te zijn voor zakelijke klanten om te gebruiken. Als gevolg hiervan hebben bedrijven als Slack, Notion en Zoom allemaal samengewerkt met Anthropic.

Net als alle andere propriëtaire LLMs is Claude alleen beschikbaar als API, hoewel het verder kan worden getraind op je gegevens en afgestemd kan worden om te reageren zoals je nodig hebt.

Command

Ontwikkelaar: Cohere

Parameters: Command R7B heeft 7 miljard; de andere modellen zijn onbekend

Contextvenster: Tot 128.000

Toegang: API

Net als Claude 3 zijn Cohere's Command-modellen ontworpen voor zakelijke gebruikers. Command R7B, Command R en Command R+ bieden een API en zijn geoptimaliseerd voor retrieval augmented generation (RAG) zodat organisaties het model nauwkeurig kunnen laten reageren op specifieke vragen van medewerkers en klanten.

Als gevolg hiervan gebruiken bedrijven als Oracle, Accenture, Notion en Salesforce de modellen van Cohere.

Nova

Ontwikkelaar: Amazon

Parameters: Onbekend

Contextvenster: Tot 300.000

Toegang: API

Amazon Nova is een familie van geavanceerde modellen beschikbaar op Amazon Web Services. Ondanks een trage start van Amazon, presteren de huidige modellen - waaronder Amazon Nova Micro, Amazon Nova Lite en Amazon Nova Pro - competitief in een reeks benchmarks. Gezien de prominente positie van AWS in cloud computing, zouden Amazon Nova-modellen uiteindelijk populair kunnen blijken.

Mistral Large 2

Ontwikkelaar: Mistral

Parameters: 123 miljard

Contextvenster: 128.000

Toegang: Open weight

Mistral is een van de grootste Europese AI-bedrijven. Zijn Mistral Large 2-model, Pixtral Large multimodaal model en Le Chat chatbot zijn allemaal directe concurrenten van GPT-4o, Gemini, ChatGPT en andere state-of-the-art AI-tools.

Mistral Large 2 is beschikbaar met open weights voor onderzoek en commerciële doeleinden. Hoewel dit geen volledig open licentie is, betekent het dat het kan worden getraind voor specifieke doeleinden.

Qwen

Ontwikkelaar: Alibaba Cloud

Parameters: 0,5 miljard, 1,5 miljard, 3 miljard, 7 miljard, 14 miljard, 32 miljard en 72 miljard

Contextvenster: Tot 1.000.000

Toegang: Open, API, chatbot

Qwen is een familie van AI-modellen van de Chinese technologiegigant Alibaba. Er zijn tientallen open modellen beschikbaar in de verschillende Qwen2.5-families, waaronder modellen op maat voor visie, codering, wiskunde en een context van een miljoen tokens.

Het best presterende model, Qwen2.5 Max, evenaart of overtreft modellen zoals GPT-4o en Gemini 2.0 Pro op een breed scala aan benchmarks. Op dit moment is het alleen beschikbaar via de Qwen-chatbot en API.

Phi-3 en Phi-4

Ontwikkelaar: Microsoft

Parameters: 3,8 miljard, 7 miljard en 14 miljard

Contextvenster: Tot 128.000

Toegang: Open

Microsoft's Phi-3-familie van kleine taalmodellen zijn geoptimaliseerd voor prestaties met een kleine omvang. De 3,8 miljard parameter Mini, 7 miljard parameter Small, 14 miljard parameter Medium en 14,7 miljard parameter Phi-4 overtreffen allemaal grotere modellen op taaltaken.

De modellen zijn beschikbaar via Azure AI Studio, Hugging Face en andere open modelplatforms.

Grok

Ontwikkelaar: xAI

Parameters: Onbekend

Contextvenster: 128.000

Toegang: Chatbot en open

Grok, een AI-model en chatbot getraind op gegevens van X (voorheen Twitter), verdiende oorspronkelijk geen plaats op deze lijst op eigen merites. Grok 3 biedt echter state-of-the-art prestaties en redeneervermogen. In één benchmark overtreft het elk ander model.

Hoewel de prestaties nu overeenkomen met andere modellen, noem ik het hier voornamelijk omdat het werd ontwikkeld door xAI, het AI-bedrijf opgericht door Elon Musk. Het zal waarschijnlijk niet lang bovenaan een benchmark blijven staan, en het maakt geen grote golven in de AI-wereld, maar xAI zal veel media-aandacht blijven krijgen, dus het is goed om te weten dat het bestaat.

Waarom zijn er zoveel LLMs?

Tot een paar jaar geleden waren LLMs beperkt tot onderzoekslaboratoria en techdemo's op AI-conferenties. Nu drijven ze talloze apps en chatbots aan, en er zijn honderden verschillende modellen beschikbaar die je zelf kunt draaien (als je de computervaardigheden hebt). Hoe zijn we hier gekomen?

Er zijn een paar factoren in het spel. Enkele van de grote zijn:

  • Met GPT-3 en ChatGPT demonstreerde OpenAI dat AI-onderzoek het punt had bereikt waarop het kon worden gebruikt om praktische tools te bouwen - dus veel andere bedrijven begonnen hetzelfde te doen.

  • LLMs vergen veel rekenkracht om te trainen, maar het kan in een kwestie van weken of maanden worden gedaan.

  • Er zijn veel open modellen die kunnen worden hertraind of aangepast tot nieuwe modellen zonder dat er een volledig nieuw model moet worden ontwikkeld.

  • Er wordt veel geld in AI-bedrijven gestoken, dus er zijn grote stimulansen voor iedereen met de vaardigheden en kennis om welk soort LLM dan ook te ontwikkelen.

Wat te verwachten van LLMs in de toekomst

Ik denk dat we in de nabije toekomst veel innovatie en nieuwe LLMs zullen blijven zien. DeepSeek was in staat om twee state-of-the-art modellen te lanceren met aanzienlijk minder krachtige hardware. Op basis daarvan heb ik het gevoel dat de drempel voor het ontwikkelen van een krachtig AI-model nog nooit zo laag is geweest. Grote techbedrijven zoals Apple, Amazon, IBM, Intel en NVIDIA hebben ook overtuigende redenen om door te gaan met het ontwikkelen van hun eigen LLMs, zelfs als ze alleen intern worden gebruikt.

Ik denk ook dat we meer efficiënte LLMs zullen blijven zien die zijn afgestemd op smartphones en andere lichtgewicht apparaten. Google begon hiermee met Gemini Nano, en hoewel Apple Intelligence wat kritiek heeft gekregen, draait het nog steeds native op edge computing apparaten.

En natuurlijk zal elke grote AI-aanbieder een model met redenering lanceren. Tot nu toe zijn de belangrijkste opties OpenAI en DeepSeek. Maar Google, Claude, Cohere en Meta zullen vermoedelijk in 2025 volledige redenerende modellen debuteren.

Anders dan dat, wie kan het zeggen? Drie jaar geleden dacht ik zeker niet dat we krachtige AI's zoals ChatGPT gratis beschikbaar zouden hebben. Misschien hebben we over een paar jaar artificial general intelligence (AGI).

Plan een gratis adviesgesprek

Klaar om te beginnen?

Ervaar de toekomst van bedrijfsvoering met AI-automatisering: verbeterde snelheid, precisie en aanpasbaarheid leiden tot een hogere productiviteit.

Plan een adviesgesprek

Jouw AI-implementatie partner!

© 2025 MPS AI. Alle rechten voorbehouden.

Klaar om te beginnen?

Ervaar de toekomst van bedrijfsvoering met AI-automatisering: verbeterde snelheid, precisie en aanpasbaarheid leiden tot een hogere productiviteit.

Plan een adviesgesprek

Jouw AI-implementatie partner!

© 2025 MPS AI. Alle rechten voorbehouden.

Klaar om te beginnen?

Ervaar de toekomst van bedrijfsvoering met AI-automatisering: verbeterde snelheid, precisie en aanpasbaarheid leiden tot een hogere productiviteit.

Plan een adviesgesprek

Jouw AI-implementatie partner!

© 2025 MPS AI. Alle rechten voorbehouden.