Wie zit er aan de knoppen? Over AI, controle en keuzes
Niet alles wat slim lijkt, denkt met jou mee

In de vorige blog heb ik het gehad over de hype rond AI: masterclasses, buzzwords en automatisering alsof het magie is. Maar als we een laag dieper kijken, komen we bij een fundamentelere vraag:
Niet alleen: wat kan AI?
Maar: wie bestuurt het, hoe werkt het, en wie heeft de controle?
Wat als je copiloot plots van koers verandert?
Veelgebruikte tools zoals ChatGPT, Copilot, Gemini en Midjourney zijn vaak gebruiksvriendelijk en krachtig — maar onder de motorkap blijft veel onzichtbaar. Gebruikers weten vaak niet op welke data de modellen getraind zijn, wat er met hun input gebeurt, of wanneer er iets verandert. Modellen kunnen zonder aankondiging aangepast worden of ineens achter een betaalmuur verdwijnen. Dat is niet per se erg — totdat je er structureel op vertrouwt.
Een bekend voorbeeld: eind 2023 merkten gebruikers dat GPT-4 ineens minder consistent was. Zonder heldere communicatie bleek OpenAI meerdere versies tegelijk uit te rollen. Wat je precies gebruikt — en hoe goed het is — hangt dan af van interne keuzes waar je zelf geen inzicht in hebt. In een populaire Reddit-post noemt een gebruiker dit gevoel zelfs “gaslighting”: het systeem voelt anders, maar niemand bevestigt het.
Je bouwt op een systeem waar je geen controle over hebt. Dat is prima voor een snelle brainstorm, maar riskant als je AI structureel integreert in je dienstverlening — of werkt met gevoelige data.
Open source is geen hobby, het is strategie
Open-source AI biedt een alternatief. Denk aan modellen als LLaMA, Mistral of GPT4All. Deze zijn vrij beschikbaar, lokaal te draaien, en aanpasbaar. Je behoudt controle over data, je voorkomt vendor lock-in en je kunt AI draaien zonder afhankelijk te zijn van de cloud. Tools zoals Ollama en LM Studio maken die toegang steeds laagdrempeliger.
Zelf gebruik ik GPT4All lokaal om e-mails en offertes voor te bereiden. Geen cloud, geen verrassingen, volledige controle. Juist die autonomie maakt het waardevol.
De vraag 'wie zit er aan de knoppen' is niet technisch, maar fundamenteel. Wie bepaalt wat een AI-systeem doet? Wie ziet jouw data? Wie begrijpt hoe beslissingen tot stand komen? Bij commerciële AI blijft veel hiervan in de mist. Open-source biedt hier een andere route: transparant, uitlegbaar en controleerbaar. Precies de richting waar ook de AI Act van de EU op stuurt, met strengere regels voor transparantie en risicobeoordeling.
Wanneer slimme systemen zichzelf opeten — en de planeet meenemen
Een ander onderbelicht risico is 'model collapse': AI-systemen die getraind worden op elkaars output verliezen op termijn nuance en diversiteit. Onderzoek in Nature laat zien dat modellen steeds slechter worden wanneer ze geen echte menselijke input meer krijgen. Dat maakt toegang tot open, diverse en kwalitatieve data belangrijker dan ooit — en een open aanpak relevanter.
Daar komt nog iets bij: het energieverbruik. Volgens MIT veroorzaakt het trainen van grote modellen zoals GPT-4 een uitstoot vergelijkbaar met meerdere auto’s over hun volledige levensduur. Yale E360 waarschuwt dat de ecologische impact van generatieve AI razendsnel toeneemt. Open-source modellen zijn vaak lichter, draaien lokaal en zijn energie-efficiënter.
Je hoeft geen engineer te zijn om bewuste keuzes te maken. Maar je moet wél weten waar je afhankelijkheden zitten — en waar je ruimte hebt voor controle.
Transparantie is geen luxe. Het is een voorwaarde voor vertrouwen en toekomstbestendigheid.
In de volgende blog ga ik verder in op de bredere maatschappelijke impact van AI: ethiek, energie, en wat het betekent om technologie zélf te kunnen begrijpen en bijsturen.