AI als orakel? Waarom kritisch blijven belangrijker is dan ooit
Is het jou ook al opgevallen? Google verrijkt zijn zoekresultaten tegenwoordig met AI – en dat ziet er flitsend uit. Maar werkt het ook goed?

Tja... ik twijfel. Neem bijvoorbeeld Gemini, de AI van Google. Vanmorgen stelde ik een simpele vraag: “Krijg ik als gemeenteambtenaar vrij op 5 mei?” En dit was het resultaat:
"Ja, want 2025 is een lustrumjaar!"
Klinkt overtuigend, toch? Alleen: het klopt niet. Ja, in 2025 heb je vrij. Maar nee, dat heeft niets met een lustrum te maken. Volgend jaar heb je ook vrij, en dan is het géén lustrumjaar. Gemini zit er dus gewoon naast.
Van zoekmachine naar schijnorakel
Wat ik hier opvallend aan vind: als je op de ouderwetse manier googelt, weet je dat er onzin tussen de resultaten kan zitten. Je zoekt zelf, vergelijkt, denkt na. Google was altijd een hulpmiddel, geen orakel. Maar AI presenteert zichzelf ineens wél als alwetend. Eén strak geformuleerd antwoord, alsof het rechtstreeks van een expert komt. Zelfs als het fout is. En precies dát kan een probleem zijn.
Stelligheid is de valkuil
Wat maakt AI-antwoorden zo tricky? Vooral die stelligheid. Twee dingen spelen daarbij een rol:
- Je krijgt één helder antwoord.
Geen keuzelijst, geen nuances, geen mitsen of maren. Dat maakt het verleidelijk om het meteen voor waar aan te nemen. - Het antwoord klinkt professioneel.
Alsof een jurist, ambtenaar of dokter het zelf heeft opgeschreven. Terwijl het vaak gewoon een bewerkt stukje tekst is, ergens van het internet geplukt en door AI gladgestreken.
Die combinatie maakt het gevaarlijk. Voor je het weet neem je het antwoord van de chatbot aan als de volle en enige waarheid. Terwijl het in feite gewoon een populaire prater is, eentje die graag doet alsof ‘ie alles weet.
AI bij de overheid? Nog een lange weg te gaan
Dat bleek vorige maand ook weer. Er werden 36 gemeentelijke chatbots getest op digitale toegankelijkheid en betrouwbaarheid. Eén simpele testvraag: “Zijn jullie aanstaande maandag open?” - gesteld op vrijdag 2 mei, dus met Bevrijdingsdag voor de deur. Geen enkele chatbot gaf het juiste antwoord.
Hoe AI wél kan helpen
Betekent dit dat AI waardeloos is? Zeker niet. Maar je moet het goed inzetten. Denk aan:
- Teksten herschrijven of samenvatten.
Ideaal als je zelf even inspiratieloos bent (zoals ik nu 😉). - Jurisprudentie zoeken.
Laat AI suggesties doen bij een complexe casus – bijvoorbeeld bij ontslag op staande voet. - Samenvattingen van Teams-gesprekken.
Nuttig, overzichtelijk, tijdbesparend.
Wat deze toepassingen gemeen hebben? AI neemt niet de regie over. Het helpt, ondersteunt, denkt mee – maar het wordt niet ‘alwetend’ ingezet.
Zo kijken wij naar AI
Ook bij RAP zijn we volop bezig met AI, maar wel met een belangrijk uitgangspunt: RAP weet het. We gaan dus niet zo snel mogelijk een chatbot introduceren om maar te zeggen dat we AI hebben, met de reële kans dat er halve waarheden richting gebruikers worden gestuurd.
Wat we wél gaan doen is kijken waar we de specifieke kracht van RAP, namelijk informatie waarvan je weet dat die klopt, kunnen inzetten voor AI. Zo kijken we op dit moment naar mogelijkheden om de gegevens uit RAP via een zogenaamde API te koppelen aan de eigen chatbot van een organisatie.
Daarnaast onderzoeken we hoe we de zoekresultaten kunnen verfijnen. Maar wel zó dat het duidelijk is waar het antwoord op is gebaseerd. Geen stelligheid zonder controle.
Blijf scherp, blijf kritisch
AI is een krachtig hulpmiddel, maar geen vervanger van gezond verstand en betrouwbare bronnen. Wil je weten hoe jouw organisatie AI wél verantwoord kan inzetten? Neem contact met ons op en ontdek hoe RAP jouw HR-dienstverlening slimmer én betrouwbaarder maakt.
Lees ook: AI-geletterdheid: wat moet HR ermee
Dit is RAP
Maak kennis met RAP. Wij hebben altijd het juiste antwoord op jouw HR-vragen. RAP weet het.