Dagdromen met AI
Waarom dwalen onze gedachten soms af? En kan AI dat ook? In deze blog ontdek je wat ‘mind wandering’ is, hoe ons brein werkt, en waarom AI nooit écht kan dagdromen – maar soms wel lijkt te doen. Inclusief tips om AI slim en kritisch in te zetten.
Eerder deze week zat ik in de auto en luisterde ik naar het weerbericht op de radio. In het noorden en oosten werd sneeuw voorspeld en in het hele land was het koud. Mijn gedachten dwaalden af. Ineens moest ik denken aan mijn vriendin die met haar gezin naar Noorwegen gaat emigreren.
Blijkbaar legde mijn brein de relatie tussen kou en Noorwegen en kwam vervolgens het beeld op van mijn vriendin en haar gezin.
Heb je dat ook wel eens dat je iets ziet of hoort en dat je gedachten onbewust afdwalen naar iets anders? Hoe werkt dat eigenlijk?
Mind wandering
Inmiddels weet ik dat dit ook wel “mind wandering” wordt genoemd. Je gedachten dwalen af terwijl je een taak aan het uitvoeren bent. Je bent niet gefocust op de taak, maar in plaats daarvan denk je na over andere zaken. Je bent bijvoorbeeld aan het dagdromen, je denkt terug aan iets of je maakt plannen voor de toekomst. Het gebeurt vanzelf, spontaan en onbewust. Je brein schakelt over van focus naar een andere stand, waarin ruimte is voor gedachten die vanzelf gaan zonder dat je daarover controle hebt.
Kan AI dit ook?
AI kan bepaalde functies van het menselijk brein nabootsen en doet dat voornamelijk door het herkennen van patronen. Zo is AI getraind om te leren, redeneren en communiceren.
1. Leren
Mensen leren door patronen te zien: “als ik dit doe, gebeurt dat.” AI doet hetzelfde: het herkent patronen in data. Zo kan het een hond van een kat en een auto van een fiets onderscheiden.
2. Redeneren
Redeneren is het verbinden van patronen tot logische conclusies. AI gebruikt patronen om verbanden te leggen. AI ziet bijvoorbeeld dat hoge werkdruk en lage betrokkenheid vaak leiden tot vertrek van medewerkers. Op basis hiervan redeneert AI dat dit een risicofactor is.
3. Communiceren
AI kan niet écht communiceren, zoals wij mensen dat doen. Maar het lijkt er wel erg veel op. Taal zit namelijk vol patronen: grammatica, woordvolgorde, context. LLM’s (Large Language Models), zoals ChatGPT herkennen deze patronen en genereren nieuwe tekst die logisch en menselijk klinkt.
AI kan dus vooral nabootsen hoe wij mensen informatie verwerken. Dat doet AI door patronen te herkennen in de informatie die hij tot zijn beschikking heeft. AI heeft zelf geen bewustzijn of innerlijke gedachten en kan zijn gedachten dus niet de vrije loop laten, zoals ik dat in de auto deed. En toch lijkt het er soms op dat AI, beter gezegd een LLM, zijn gedachten de vrije loop laat, doordat het een antwoord geeft dat onjuist of onlogisch is. Hoe komt dat eigenlijk?
Betrouwbaarheid
LLM’s leren van grote hoeveelheden tekst van bijvoorbeeld het internet en boeken. Hierin herkennen LLM’s patronen en relaties tussen woorden. Het zijn teksten die door mensen geschreven zijn. Deze teksten bevatten fouten. Een LLM weet niet wat goed of fout is en kan zelf niet controleren of iets klopt. Daardoor kan een LLM verkeerde informatie overnemen in het antwoord. Bovendien zijn LLM’s getraind om een antwoord te geven. Dat “wil” een LLM dus ook heel graag doen. Maar als het model geen of te weinig informatie heeft om antwoord te kunnen geven, dan gaat het zelf iets verzinnen. Om in elk geval íéts van een antwoord te kunnen geven.
De allergrootste uitdaging met AI-assistenten is dat wij mensen leren om met ze om te gaan. Het is geen alwetende technologie en zo moeten we het ook niet behandelen. We moeten het zien als hulpmiddel, omdat AI sommige dingen veel sneller kan dan ons brein. Maar wij moeten zelf blijven nadenken. Hoe doen we dat dan? We moeten duidelijke en kritische vragen blijven stellen, onze eigen intuïtie volgen en vooral samenwerken. Omdat wij mensen leren van elkaar en de ervaringen die we met elkaar hebben. Die ervaringen heeft AI niet. Alleen wij mensen kunnen ons denkvermogen en onze intuïtie gebruiken. Daarmee kunnen we AI op de juiste manier inzetten in HR.
Tot slot
Ik vroeg ChatGPT of AI kan “mind wanderen”. Het antwoord: “niet echt, maar AI kan gedrag vertonen dat oppervlakkig lijkt op het afdwalen van gedachten – zonder dat er sprake is van bewustzijn, intentie of interne gedachten.” En vervolgens: “Hier is een voorbeeld van een soort “AI-achtige mind-wandering” — dus geen echte innerlijke gedachte, maar een tekst die lijkt op afdwalen”
Ik begin te denken aan het woord wandering zelf. Het doet me denken aan wandelen, en wandelen aan bossen. In een bos ruikt het vaak naar dennennaalden, tenzij het heeft geregend — dan ruikt alles naar aarde. Grappig hoe regen altijd dingen naar boven haalt; sommige mensen zeggen dat het hun geheugen scherper maakt. Dat is vreemd, want bij regen denk ik meestal aan binnen zitten met warme thee. Thee… er bestaan zoveel soorten dat het bijna lijkt alsof elke thee een eigen persoonlijkheid heeft. Sommige smaken alsof ze geschreven zijn voor rustige ochtenden, andere voor nachten waarin je eigenlijk allang zou moeten slapen. Slapen is een fascinerend onderwerp — mensen dromen, maar niemand weet precies waarom. Dromen zijn eigenlijk ook een soort zwervende gedachten, maar dan in kleur.”