Open-source AI in 2026: indrukwekkender dan je denkt
De kloof tussen open-source en gesloten AI-modellen is kleiner dan ooit. Een overzicht van wat er mogelijk is, wat je lokaal kunt draaien en waarom dit relevant is voor jouw organisatie.
In 2023 liepen open-source AI-modellen achttien maanden achter op de beste gesloten modellen. In 2025 was dat zes maanden. Vandaag, volgens onderzoek van Epoch AI, is dat drie maanden.
Drie maanden. Dat betekent dat de frontier-prestaties van vandaag over een kwartaal vrij beschikbaar zijn. Open-source. Gratis te downloaden. Op je eigen hardware te draaien.
En dat verandert de berekening voor elk bedrijf dat nadenkt over AI.
Wat er nu beschikbaar is
De cijfers zijn concreet. DeepSeek-V3.2, een open-source model onder MIT-licentie, presteert op coding benchmarks vrijwel gelijk aan de beste gesloten modellen. Het model heeft 671 miljard parameters maar activeert er slechts 37 miljard per vraag, wat het verrassend efficient maakt.
Alibaba’s Qwen3-235B scoort op meerdere benchmarks hoger dan GPT-4o. Met standaard 262.000 tokens context en uitbreidbaar tot meer dan een miljoen. De nieuwste versie, Qwen 3.5, biedt native multimodale ondersteuning: tekst, beeld en video vanuit hetzelfde model.
Meta’s Llama 4 komt in twee varianten. Maverick (400 miljard parameters) haalt 89% van GPT-4.5 op de belangrijkste benchmarks. Scout biedt een contextvenster van 10 miljoen tokens, meer dan welk gesloten model ook.
En dan is er Mistral, het Franse bedrijf dat zich specifiek richt op Europa. Sterk meertalig, inclusief Nederlands, en gebouwd met de EU AI Act in het achterhoofd.
Wil je deze cijfers zelf checken? Op Chatbot Arena kun je modellen blind tegen elkaar testen, en Artificial Analysis geeft een actueel overzicht van benchmarks en prijzen per model.
Wat kun je lokaal draaien?
Op een Apple Silicon Mac met 32GB geheugen draai je modellen tot zo’n 14 miljard parameters comfortabel. Met kwantisatie (een techniek die het geheugengebruik reduceert met minimaal kwaliteitsverlies) kun je tot 30 miljard, al wordt het geheugen dan krap bij langere gesprekken. Llama 4 Scout is een uitzondering: het heeft 17 miljard actieve parameters dankzij zijn MoE-architectuur en draait prima op 32GB. Voor veel zakelijke taken zijn deze modellen meer dan voldoende: documenten samenvatten, e-mails opstellen, interne kennisbanken doorzoeken.
Ollama maakt het opstarten zo simpel als een enkele terminal-opdracht. LM Studio biedt een grafische interface waarmee je modellen kunt downloaden en testen zonder technische kennis.
Voor de grotere modellen heb je serieuze hardware nodig. Maar cloud-aanbieders als Azure, AWS en Google Cloud bieden open-source modellen aan met enterprise-grade SLA’s. De controle van open-source, het gemak van managed infrastructure.
Waar zit dan het verschil?
Op ruwe benchmarks is de kloof klein. Maar de modellen zelf zijn maar een deel van het verhaal. De grote aanbieders bouwen complete ecosystemen om hun modellen heen: tools die samenwerken met je bestaande software, interfaces waar je direct mee aan de slag kunt, integraties die het instappen laag drempelig maken. Denk aan Gemini in Google Workspace of Claude Code dat direct in je codebase werkt.
Bij open-source modellen moet je dat ecosysteem zelf opbouwen. Tool calling werkt technisch, Qwen3, Gemma 4 en Llama ondersteunen het native via Ollama. Maar de ervaring van “open je laptop en begin” heb je niet.
Dat maakt frontier modellen voor veel bedrijven de logische eerste stap. Maar er zijn scenario’s waar open-source de betere optie is.
Privacy is het sterkste argument. Als je data je netwerk niet mag verlaten, in de zorg, juridische sector of overheid, dan is een lokaal model geen luxe maar een voorwaarde. Onder de AVG geeft het je volledige controle over dataverwerking.
Bij schaal worden de kosten relevant. Duizenden AI-verzoeken per dag lopen snel op. Zelf hosten kan dan een heel stuk goedkoper zijn. En je bent niet afhankelijk van de prijsstijgingen of beleidswijzigingen van een enkele aanbieder.
Het tempo is het echte verhaal
Het interessante aan open-source AI is niet alleen waar het nu staat, maar hoe snel het beweegt. Drie maanden achterstand op frontier-modellen betekent dat elk bedrijf dat nu besluit “AI is nog niet goed genoeg voor ons” over een kwartaal een fundamenteel andere berekening maakt.
Wat vandaag exclusief beschikbaar is achter een betaald abonnement, is morgen vrij toegankelijk. Dat patroon versnelt. En het verandert niet alleen de technologie, maar ook hoe je als organisatie nadenkt over wanneer en hoe je AI inzet.
Ik schreef eerder over hoe je als organisatie leert werken op die grens van AI-capability. Dat stuk gaat over de vaardigheden die je nodig hebt om bij te blijven wanneer de technologie sneller beweegt dan je processen. Open-source maakt die beweging alleen maar sneller.
Wil je weten hoe je als organisatie omgaat met dit tempo? Neem contact op voor een vrijblijvend gesprek of bekijk onze trainingen en workshops.