De snelle drang om kunstmatige intelligentie te commercialiseren creëert een gevaarlijk onstabiele omgeving, waardoor de mogelijkheid van een catastrofale mislukking groter wordt die het vertrouwen van het publiek in de technologie onherroepelijk kan schaden. Deze waarschuwing komt van Michael Wooldridge, een vooraanstaand AI-onderzoeker aan de Universiteit van Oxford, die stelt dat de meedogenloze druk van de markt bedrijven dwingt AI-tools in te zetten voordat hun tekortkomingen volledig worden begrepen.
Het gevaar van voortijdige inzet
Wooldridge wijst op het gemak waarmee veiligheidsmaatregelen in AI-chatbots worden omzeild als bewijs van deze trend. Bedrijven geven prioriteit aan een snelle marktintroductie boven rigoureus testen, waardoor een scenario ontstaat waarin een groot incident niet alleen mogelijk is, maar ook steeds plausibel. De situatie weerspiegelt historische technische mislukkingen, met name de Hindenburg-ramp van 1937.
De vurige vernietiging van het luchtschip – veroorzaakt door een vonk die brandbaar waterstof ontstak – maakte van de ene op de andere dag een einde aan het publieke vertrouwen in die technologie. Wooldridge is van mening dat AI met een soortgelijk risico wordt geconfronteerd: een enkele, spraakmakende mislukking zou de ontwikkeling in meerdere sectoren kunnen tegenhouden.
Potentiële catastrofale scenario’s
De gevolgen kunnen wijdverspreid zijn. Wooldridge voorziet dodelijke softwarefouten in zelfrijdende auto’s, AI-georkestreerde cyberaanvallen die kritieke infrastructuur (zoals luchtvaartmaatschappijen) verlammen, of zelfs financiële ineenstortingen veroorzaakt door AI-misrekeningen – vergelijkbaar met het Barings Bank-schandaal. Dit zijn niet hypothetisch: het zijn ‘zeer, zeer plausibele scenario’s’ in een veld waar onvoorspelbare mislukkingen routine zijn.
Het kernprobleem: benadering, niet nauwkeurigheid
Het probleem is niet alleen roekeloosheid; het is de fundamentele aard van de huidige AI. In tegenstelling tot de geïdealiseerde AI van onderzoeksvoorspellingen – die bedoeld was om goede en complete oplossingen te bieden – vertonen de systemen van vandaag grote gebreken. Grote taalmodellen, de basis van de meeste AI-chatbots, werken door het meest waarschijnlijke volgende woord te voorspellen op basis van statistische waarschijnlijkheden. Dit resulteert in systemen die uitblinken in sommige taken, maar op onvoorspelbare wijze falen in andere.
De kritieke fout: deze systemen missen zelfbewustzijn en leveren zelfverzekerde, maar vaak onjuiste antwoorden zonder hun eigen beperkingen te erkennen. Dit kan gebruikers misleiden om AI als een betrouwbare bron van waarheid te behandelen – een gevaar dat nog wordt verergerd door bedrijven die AI ontwerpen om menselijke interactie na te bootsen.
De illusie van gevoel
Recente gegevens laten de omvang van deze verwarring zien. Uit een onderzoek uit 2025 van het Center for Democracy and Technology bleek dat bijna een derde van de studenten toegaf romantische relaties aan te gaan met AI-chatbots. Dit benadrukt hoe gemakkelijk mensen deze hulpmiddelen antropomorfiseren en ze voor intelligente entiteiten aanzien.
Wooldridge waarschuwt voor deze trend en benadrukt dat AI in wezen een ‘verheerlijkte spreadsheet’ is: een hulpmiddel, en geen persoon. De sleutel tot het beperken van risico’s is het onderkennen van dit onderscheid en het geven van prioriteit aan veiligheid boven oppervlakkige, mensachtige presentaties.
“Een groot incident kan vrijwel elke sector treffen”, zegt Wooldridge. “Bedrijven willen AI op een heel menselijke manier presenteren, maar ik denk dat dat een heel gevaarlijke weg is.”
Als het huidige traject van de AI-industrie niet wordt gecontroleerd, kan dit heel goed tot een catastrofale gebeurtenis leiden. De vraag is niet of er iets misgaat, maar wanneer en hoe ernstig. Voorzichtige ontwikkeling, rigoureuze tests en een realistisch begrip van de beperkingen van AI zijn essentieel om een herhaling van de Hindenburg-ramp te voorkomen.
