Zou je een kind van drie een keukenmes geven? Waarschijnlijk niet, want er kan heel wat mis gaan. Wat als we het gebruik van een keukenmes eens vergelijken met het gebruik van ChatGPT?


Het gevaar van een keukenmes

We weten allemaal wat je met een keukenmes kan doen: voedsel transformeren van grote stukken naar kleinere stukken. Deze waardevolle handeling helpt je bij het bereiden van eten. Waarom zien we dan toch liever geen kind met zo’n mes rondlopen? Is het niet handig als je kind je kan helpen bij het koken?

De reden ligt voor hand: het mes is scherp en dat maakt het gevaarlijk. Het gevaar neemt af naarmate je beter bekend raakt met wereld van het koken. Je leert hoe je een mes kan gebruiken en wanneer het nuttig is. Je denkt er bijna niet meer over na dat het ook een gevaarlijk ding is. Misschien snijd je nog wel af en toe in je vinger, een herinnering aan het gevaar van het mes.

Als je een kind zo’n mes geeft, doe je de aanname dat dat kind bekend is met de wereld van het koken. Dat die weet wat die er wel en niet mee moet doen. En dat is naïef.


Waarom ChatGPT op een keukenmes lijkt

Als ik presentaties zie en artikelen lees over het verantwoord gebruik van ChatGPT, dan vliegen er allerlei termen om de oren: datageletterdheid, mediawijsheid en bewustwording. Het is belangrijk dat je weet wat er achter de wereld van ChatGPT schuil gaat:

  • Welke data zijn er gebruikt tijdens de ontwikkelfase?
  • Bevatten die data vooringenomenheid (bias)?
  • Is de output van zo’n systeem als ChatGPT te vertrouwen?
  • Wanneer niet?

Dat is niet altijd makkelijk te zien.

Een tijdje terug, in de ‘vroege jaren’ van ChatGPT, las ik een simpel voorbeeld over een voetbalvraag. ChatGPT werd gevraagd om iets over Messi en Ronaldo te vertellen. Dat wilde ChatGPT wel. Het gaf o.a. aan dat deze sterspelers bij respectievelijk Barcelona en Real Madrid spelen. Dat klopte (ook toen al) niet meer. Deze fout komt voort uit oude data waarmee ChatGPT ontwikkeld is.

Hoe simpel dit voorbeeld ook is, er gaat een belangrijke vraag achter schuil:

Wat als het model onzin verkoopt, maar ik niets weet over het onderwerp waarover het die onzin verkoopt?

Ben ik in zo’n situatie in staat om dat te herkennen? Of neem ik het over als waarheid omdat het geloofwaardig klinkt?


Waarom ChatGPT niet op een keukenmes lijkt

Het interessante is dat we bij het gebruik van een keukenmes duidelijk rekening houden met bepaalde randvoorwaarden, zoals je volwassenheid en kennis over het koken. Bij ChatGPT hebben we ook een idee van de randvoorwaarden, maar kiezen we ervoor deze vakkundig naast ons neer te leggen. Want: wie zegt er nou ja tegen een zo’n geweldige tool als je eerst een bult trainingen moet volgen?

En er is nog een verschil tussen ChatGPT en het keukenmes.

Het risico van een kind met een keukenmes is duidelijk: het kind kan zichzelf verwonden; het kan anderen verwonden; of ‘als het even meezit’ een object beschadigen.

Maar wat is het effect van ChatGPT op de samenleving?


Nieuwsgierig?

Hoor je iets over ChatGPT, dan hoor vooral over de kansen en productiviteitsboosts. Meer output in minder tijd. Je hoort slechts mondjesmaat iets over de dingen waar ChatGPT afbreuk aan doet.

Nieuwsgierig naar een voorbeeld? Bekijk dan deze video over ChatGPT and Human Creativity (~5 mins, Engels).