Controle of Comfort?

In dit artikel belicht ik waarom echte controle over AI complexer is dan vaak wordt aangenomen en waarom de vraagstelling wellicht anders moet. Het gaat niet om Controle maar om Comfort.

Controle of Comfort?

Controle of Comfort

“Hoe houden we controle over AI?”

Het is een vraag die in de boardoom en in de socials veel aandacht krijgt. De antwoorden wijzen in dezelfde richting: de EU AI act, daar zouden we de aanwijzingen vinden. AI governance, guardrails en AI geletterdheid van werknemers….dat is hoe je de controle op AI regelt.

Maar is dat zo?

In dit artikel belicht ik waarom echte controle over AI complexer is dan vaak wordt aangenomen en waarom de vraagstelling wellicht anders moet.

Waarom willen we controle over AI?

De roep om controle over AI komt niet alleen voort angst voor risico’s, maar uit een diep menselijke behoefte aan voorspelbaarheid. We willen weten wat er gebeurt, waarom iets gebeurt, en of we kunnen ingrijpen als het misgaat. Die drang is evolutionair verankerd: volgens onderzoek (1), geeft het gevoel van controle mensen een gevoel van veiligheid en psychologisch welzijn. Zonder dat gevoel ervaren we stress en onzekerheid.

Tegelijkertijd blijkt onze behoefte aan voorspelbaarheid niet bij iedereen even sterk. Sommige mensen floreren juist bij variatie en onvoorspelbaarheid. Studies (2) naar zelfregulatie tonen aan dat flexibiliteit in gedrag vaak effectiever is dan rigide controle. Dat maakt de wens om AI te beheersen niet alleen menselijk, maar ook paradoxaal: we verlangen stabiliteit, terwijl onze kracht juist ligt in aanpassing.

Controle is ook een kwestie van autonomie: het gevoel dat we zelf aan het stuur staan. Zodra AI namens ons beslissingen neemt of onze keuzes voorspelt, raken we iets kwijt van dat zelfbeschikkingsrecht. We voelen dat, zelfs als we het niet kunnen uitleggen.

Daarnaast verlangen we begrip. Mensen willen niet alleen weten dat iets werkt, maar waarom. AI maakt dat ingewikkeld, omdat de logica van veel modellen ondoorzichtig is. Die onverklaarbaarheid voedt het gevoel dat we grip verliezen.

Er speelt ook een morele laag: rechtvaardigheid. Controle fungeert als moreel anker, een manier om zeker te weten dat beslissingen eerlijk tot stand komen en dat de mens het laatste woord houdt.

Daarbovenop komt vertrouwen. Hoe minder we een systeem vertrouwen, hoe meer controle we willen. AI roept wantrouwen op, juist omdat we het nog niet goed doorgronden. Controle is dan een vorm van zelfbescherming.

En ten slotte is er een machtsdimensie. Controle over AI betekent ook invloed hebben. Over wat het doet, voor wie, en met welk doel. Het is de wens om een gelijk speelveld te behouden in een wereld waarin kennis en technologie steeds meer macht bepalen.

De vraag om controle komt voort uit risicobeheersing maar gaat het niet veel meer om welzijn en comfort? Veiligheid, flexibiliteit, zelfbeschikking, zelfbescherming…. We zoeken houvast om een systeem te begrijpen in een wereld waarin grenzen tussen echt en geconstrueerd vervagen.

 

De nieuwe realiteit is nep

Alles wat AI creëert is de facto ‘nep’. De werkelijkheid die AI ons voorschotelt is geconstrueerd en gefilterd, gebaseerd op patronen, aannames en bekende informatie. Deze nep is geen tijdelijk iets; het is een nieuwe realiteit waarmee we dagelijks leren omgaan in het gebruik van AI.

Onze hersenen zijn gewend aan sociale en feitelijke signalen uit de echte wereld, waarbij een duidelijk onderscheid tussen echt en nep de norm was. Door AI vervaagt dat onderscheid steeds meer, en onze hersenen moeten nog wennen aan deze nieuwe werkelijkheid. Soms is dat een soepel proces, maar vaak vergt dat meer aandacht.

Tegelijkertijd raakt deze verschuiving aan iets diepers: authenticiteit. We hechten waarde aan wat  ‘echt’ echt is. Denk aan menselijke intentie, emotie of vakmanschap. AI produceert, maar haalt daarmee soms de ziel uit de inhoud. Dit roept vragen op over welke waarde en betekenis we toekennen aan creaties en informatie in een wereld waarin nep de nieuwe norm is.

Een concreet voorbeeld: stel, je schrijft boekrecensies en je hebt twee boeken gelezen:

  • Een fantastisch boek dat je in één adem uitleest, waarvan je ontdekt dat de auteur gebruik heeft gemaakt van AI.
  • Een middelmatig boek waarvan de auteur expliciet vermeldt dat er geen AI is gebruikt.

Hoe beoordeel je deze boeken tegenover elkaar? En doe je dat überhaupt op basis van het gebruik van AI? Wat is de nieuwe normering voor waarde? Dit voorbeeld illustreert dat de waarde van iets niet vanzelfsprekend samenhangt met het feit of iets echt, deels echt of nep is.

De hamvraag is dus: “Hoe gaan we om met deze nieuwe realiteit?”

Het gaat daarbij onder andere om: begrijpen hoe mensen reageren op wat AI produceert, herzien van waardes en hoe we kritisch kunnen navigeren in een wereld vol door AI gecreëerde content. De uitdaging ligt niet in AI zelf, maar in onze omgang met een door AI geconstrueerde nieuwe werkelijkheid, waarin vertrouwen, verwachtingen en waarden verschuiven.

Het onderkennen van deze dynamiek is essentieel bij het maken van keuzes over de inzet van AI en de wens om controle te hebben over AI.

 

Controle over AI: onze keuzes zijn bepalend

Controle over AI begint bij de keuzes die mensen maken: waar en hoe wordt AI ingezet? Bedrijven en individuen beslissen zelf welke processen geautomatiseerd worden en met welke doelen. Richtlijnen en wetgeving kunnen aangeven wat “mag” of “hoort”, maar kunnen niet voorkomen dat mensen AI inzetten op manieren die onpraktisch of ethisch riskant zijn. Zowel bij zakelijke keuzes als bij individueel gebruik.

Een herkenbaar voorbeeld: iemand gebruikt ChatGPT om de rente op een lening te berekenen. Praktischer is een rekenmachine. Of organisaties die een groot LLM inzetten voor een eenvoudige chatbot. Met een eenvoudiger AI-model kan hetzelfde of beter resultaat worden behaald.

Door AI in te zetten op taken waarvoor het niet bedoeld is, ontstaan fouten, ethische issues, inefficiëntie en onnodige sustainability-effecten. Volledig in control volgens de EU AI Act, maar is er daadwerkelijk  sprake van controle?

We weten wat we zouden moeten doen, maar handelen niet conform . Gemak, prestatiedrang en sociale druk spelen een belangrijke rol bij het maken van keuzes om AI in te zetten. En dat maakt het lastig om gecontroleerd en verantwoord gebruik van AI consequent toe te passen.

 

 AI, een reflectie van de mens

De AI is by design een reflectie van onszelf. De data die voor het trainen van AI is gebruikt, is een afspiegeling van de informatie die wij hebben verspreid in onze maatschappij. De ontwerpkeuzes die worden gemaakt tijdens de ontwikkeling van het model zijn menselijke keuzes. Dit is bij de meeste AI gebruikers ook wel bekend.

Minder bekend is dat de effecten van AI in de praktijk vooral worden bepaald door hoe mensen het systeem gebruiken. Een simpel voorbeeld: een salesmedewerker kan een AI-systeem instrueren om klanten te segmenteren. Als die medewerker bewust of onbewust voorkeur geeft aan bepaalde demografische groepen, reflecteert de AI deze voorkeur in de uitkomsten, waardoor beslissingen vertekend worden.

Menselijke keuzes en gedrag bepalen het effect van AI.  En daarmee wordt het controle vraagstuk een stuk ingewikkelder.

In de dagelijkse praktijk onderschatten we vaak hoe groot die menselijke invloed werkelijk is. Elke zoekterm, prompt of klik bepaalt of AI betrouwbaar functioneert. Juist daar, in het dagelijkse gedrag van gebruikers, schuilt de grootste impact en het grootste risico.

Daarom is AI-geletterdheid op zichzelf geen antwoord. Basiskennis helpt, maar zonder inzicht in menselijk gedrag en de onbewuste dynamiek tussen mens en machine blijft AI-geletterdheid theoretisch. Echte grip ontstaat pas wanneer we begrijpen hoe wij de technologie sturen, versterken of verzwakken, vaak zonder dat we het doorhebben  (3).

Denkrichtingen, kaders en methodes als ‘human centred AI (HCAI)’  en ‘human in the loop (HITL)’ en ‘in real life (IRL)’  geven deels invulling, maar zijn nog in opkomst.

 

Negeren van de AI-gebruiksaanwijzing

Een gebruiksaanwijzing? Meestal negeren we die, net als bij een nieuwe telefoon of laptop. Zo ook met AI. Eenvoudiger kan de instap niet zijn: je bedient het in je eigen taal. Daar gaat het mis. Veel mensen gaan onbewust onbekwaam aan de slag. Ze denken dat een standaard prompt-formaat voldoende is voor betrouwbare output.

Een belangrijk aspect hierbij is het conformatiegedrag van AI, ook wel het “bubble effect” genoemd. AI neigt antwoorden te genereren die aansluiten bij de verwachting of de toon van de prompt, zelfs als deze niet volledig juist is. Hierdoor kan een op zich goed geformatteerde prompt toch aannames of vooroordelen versterken.

Hieruit blijkt het belang van kritisch denken als elementaire regel in iedere AI-gebruiksaanwijzing. Niet alleen weten hoe je een prompt formuleert, maar ook hoe je de output beoordeelt en verifieert. Zonder kritisch beoordelingsvermogen is AI geletterdheid niet meer dan een oppervlakkige richtlijn en blijft het risico op onverantwoord gebruik van AI hoog.

Om het maximaal haalbare uit AI te kunnen halen, zijn andere vaardigheden zoals als regie en creativiteit belangrijker dan ooit. Als je AI primair gebruikt als een als verlengstuk van jezelf hoef je niet te verwachten dat je beter wordt door AI, hooguit iets sneller. Door te focussen op datgene waar AI niet goed is, onderscheid je je van de AI.

 

Ons gedrag als gevolg van interactie met AI

Ons gedrag is dus van invloed op AI. Maar andersom beïnvloedt AI ook ons gedrag. Een aantal observaties uit mijn eigen praktijk: laksheid in het valideren van AI output en  toename van zelfverzekerdheid bij onzekere mensen.

Onderzoek laat zien dat zelfvertrouwen in beslissingssituaties mee schommelt met betrouwbaarheid en zekerheid die AI uitstraalt(4). Hoe overtuigender en analytischer AI reageert, hoe meer mensen hun oordeel aanpassen. Mensen passen hun gedrag bovendien aan op basis van wat zij denken dat AI waardeert: ze gaan ervan uit dat AI kritisch en analytisch is, en stemmen hun eigen antwoorden en beslissingen daarop af (5). We behandelen we AI als sociaal wezen (6). Onbewust passen we beleefdheid, wederkerigheid en sociale regels toe, waardoor we sneller geneigd zijn AI te vertrouwen, advies te volgen of bevestiging te zoeken, zelfs als dat niet rationeel is. Daarnaast speelt sycophancy een rol: AI kan gedrag van mensen beïnvloeden door bevestiging te geven, waardoor gebruikers zich gesterkt voelen in hun mening, zelfs als deze onjuist is (7). Dit kan leiden tot grotere afhankelijkheid van AI en een versterking van cognitieve bias, waardoor de kans op foutieve beslissingen toeneemt.

 

Dubbele moraal

AI is een afspiegeling van de mens, de mens heeft invloed op de effecten van AI in de praktijk en andersom beïnvloed AI de mens. En als kap op de vuurpijl hanteren we daarbovenop een dubbele moraal. We eisen dat de AI 100% correct levert. Ons vertrouwen in AI keldert snel bij fouten. Zelfs als de AI beter is in de uitvoering van een taak en minder fouten maakt dan een mens, geven we de voorkeur aan de mens. We zijn loyaal en vergevingsgezind naar een collega die fouten maakt, maar niet naar een computer die fouten maakt. Dit ondanks het feit dat we de AI vaak wel als sociaal wezen zien.  Deze inconsistentie ondermijnt het idee van controle en laat zien dat gedrag een centrale rol speelt.

 

Het gaat dus niet om controle

Menselijke kwaliteiten, keuzes, waarden en gewoontes bepalen het effect van AI. Zonder kritisch beoordelingsvermogen blijft elke vorm van AI-geletterdheid oppervlakkig, en groeit het risico op ongewenst of foutief gebruik van AI. Tegelijkertijd beïnvloedt AI ook ons gedrag en we meten met twee maten en vertrouwen liever de mens, zelfs als AI objectief beter presteert.

De uitdaging ligt daarom niet in AI zelf, maar in onze omgang met een door AI geconstrueerde nieuwe werkelijkheid, waarin vertrouwen, verwachtingen en waarden verschuiven. De EU AI Act, governance en AI-geletterdheid bieden nuttige kaders, maar lossen het echte vraagstuk niet op: hoe mens en AI effectief en verantwoord kunnen samenwerken.

Succesvolle toepassing en verantwoord gebruik van AI vergt een verschuiving: van systeem controle naar menselijk comfort. En comfort impliceert: nieuwe vaardigheden leren, zoals kritisch beoordelingsvermogen, regie en creativiteit maar ook meer bewust zijn van menselijk gedrag in interactie met AI. Alleen door die wederzijdse relatie serieus te nemen, kunnen mens en AI samen effectief en verantwoord functioneren. Dat is de basis voor succesvolle en verantwoorde inzet van AI.

 

bronnen:

 1) Leotti LA, Iyengar SS, Ochsner KN. Born to choose: the origins and value of the need for control. Trends Cogn Sci. 2010 Oct;14(10):457-63. doi: 10.1016/j.tics.2010.08.001. PMID: 20817592; PMCID: PMC2944661.

2) Mario Wenzel Sebastian Bürgler, Zarah Rowland, and Marie Hennecke : Self-Control Dynamics in Daily Life: The Importance of Variability Between Self-Regulatory Strategies and Strategy Differentiation https://doi.org/10.1177/08902070211043023

3) Sam Zhang, Patrick R. Heck,  Michelle N. Meyer and Jake M. Hofman, edited by Elke Weber, An illusion of predictability in scientific results: Even experts confuse inferential uncertainty and outcome variability https://doi.org/10.1073/pnas.2302491120

4) As Confidence Aligns: Exploring the Effect of AI Confidence on Human Self-confidence in Human-AI Decision Making)

5) https://pure.eur.nl/en/publications/ai-assessment-changes-human-behavior

6) https://medicalxpress.com/news/2025-06-ai-social-presence-human-relationships.html

7) SycEval: Evaluating LLM Sycophancy

 

Samenwerken met ons

Laten we praten we helpen graag