Slimmer met Regelgeving

ChatGPT en regelgeving: kansen en valkuilen

Wat kan ChatGPT betekenen voor de totstandkoming van regelgeving en toegankelijkheid voor burgers en bedrijven? In dit artikel verkennen we de kansen en valkuilen

Afgelopen woensdag 15 maart 2023 heeft OpenAI de nieuwe versie van ChatGPT aangekondigd, op basis van het taalmodel GPT-4. De berichtgeving over ChatGPT – niet alleen in de technische vakbladen, maar juist ook  in de reguliere media – laat zien dat duidelijk sprake is van een technische vernieuwing die grote impact kan hebben op de maatschappij.

ChatGPT staat in een lange reeks van machines die gedrag vertonen die we tot voor kort alleen zouden toerekenen aan mensen. Meestal waren dit toepassingen in het domein van spelletjes (Schaken, Jeopardy, Go). ChatGPT richt zich juist op het verwerken van natuurlijke taal. ChatGPT is niet het eerste algemene AI-systeem dat natuurlijke taal kan verwerken. Ook zijn voorgang GPT3 kon dit al. Wat ChatGPT bijzonder maakt, is dat het een eenvoudig bruikbare interface heeft waarmee een menselijke vorm van interactie mogelijk is: je kunt letterlijk chatten met GPT.

OpenAI stelt zelf: “We’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks.“. En dit artikel beschrijft dat met GPT-4 in staat zou zijn om een examen rechten met succes af te ronden.

Maar wat is de betekenis van ChatGPT? Of preciezer: wat is de betekenis van de uitspraken die ChatGPT doet? Zijn het menselijke uitspraken, of is ChatGPT eigenlijk niets meer of minder dan een heel erg slimme rekenmachine? Weet ChatGPT zelf eigenlijk wel wat het zegt?

Lewis Carroll schreef in Throught the Looking glass over beweringen: “When I use a word, Humpty Dumpty said, in rather a scornful tone, it means just what I choose it to mean — neither more nor less.” Met andere woorden: het is de spreker die bepaalt wat de woorden betekenen. Maar wie spreekt er, als we chatten met ChatGPT?

Jan Dietz schrijft in rode tuinkabouters bestaan niet over drie soorten (tuin)kabouters. Blauwe (tuin)kabouters die goed zijn in opslaan en weer ophalen. Groene tuinkabouters die goed zijn in informatieverwerking, berekeningen, afleidingen, transformaties. En rode tuinkabouters die in staat zijn om echt nieuwe dingen te maken door middel van taal. Het betreft de theorie van forma, informa en performa. Zijn betoog was dat alleen mensen (in het sprookje de kabouters) in staat zijn tot het creëren van dingen door middel van taal. In zijn sprookje zijn tuinkabouters een allegorie voor machines, computers. Die taalhandelingen kunnen zij niet plegen. Toch is dat precies wat ChatGPT lijkt te doen: het lijkt verdacht veel op een rode tuinkabouter, op de Humpty Dumpty achter de woorden die in de chat worden neergezet.

Een bekende test om te bepalen of een machine menselijke gedrag kan immiteren is de Turing test, bedacht door Alan Turing. En inderdaad wordt in dit artikel gesteld dat ChatGPT de Turing test heeft doorstaan. Maar in dit artikel wordt gesteld dat ChatGPT  juist faalt voor de Turing test. Dat ChatGPT faalt voor de Turing test lijkt wel logisch, aangezien het een eerlijk antwoord geeft op de vraag “ben je een chatbot“. Het speelt de imitation game niet mee. Sterker nog, het lijkt zich bewust te zijn van het feit dat het zich niet voor moet doen als rode tuinkabouter. Een belangrijke performa handeling van mensen in een rechtsstaat is het tot stand brengen van wetgeving. Maar op de vraag aan ChatGPT om eens een stukje wetgeving te maken, antwoord deze: “Helaas kan ik als AI-taalmodel geen wettelijke voorschriften maken of implementeren.”. Het wil wel graag een rode tuinkabouter zijn, maar helaas… het blijft een machine.

Uit het laatste antwoord kun je opmaken dat ChatGPT lijkt te weten wat het zegt. Maar is dat ook zo? Of is het slechts “voorgeprogrammeerd” om dergelijke uitspraken te doen? In the water bucket test wordt de casus besproken wat het antwoord is van ChatGPT op de vraag “Wat gebeurt er als je met een volle emmer water gaat rennen”. Mensen zullen direct zich een beeld hierbij kunnen vormen en een antwoord geven als “Je wordt nat”. ChatGPT daarentegen geeft vooral antwoord op de feitelijke aspecten. Pas na toevoeging van zeer specifieke elementen in de originele vraag, komt ChatGPT op het idee dat je wellicht nat wordt. Met andere woorden (zoals ook in de video wordt gesteld): ChatGPT weet niet wat het zegt, het kan alleen heel goed een vraagzin analyseren en relevante zinnen teruggeven. Indrukwekkend, maar geen rode tuinkabouter. Bovenstaande vragen werden gesteld aan ChatGPT 3.5. Opvolgers zullen het vast beter doen.

Als ChatGPT niet zelf degene is die spreekt, wie spreekt er dan wel? Wie weet daadwerkelijk wat de woorden betekenen die ChatGPT zo indrukwekkend samenvoegt? Helaas geeft ChatGPT daarover geen informatie: de bron(nen) die ChatGPT gebruikt om tot zijn antwoord te komen, worden niet onthuld. Inmiddels heeft ChatGPT een opvolger gekregen, ChatGPTPlus op basis van het GPT-4 taalmodel. Onze verwachting is dat deze versie, en zijn opvolgers, steeds beter inzicht kunnen geven in de manier waarop antwoorden tot stand zijn gekomen.

Zoals Jan Dietz al aangaf: “Pas op voor rode tuinkabouters, die bestaan namelijk niet”. ChatGPT is een indrukwekkend hulpmiddel dat ons kan helpen om sneller relevante informatie en antwoorden te krijgen op vragen. Daarvoor is het wel van belang dat ChatGPT uitleg geeft hoe het tot zijn antwoord is gekomen. We zullen in ons werk gebruik gaan maken van AI tools als ChatGPT en zijn opvolgers en daarmee slimmer ons werk doen. ChatGPT zal taken overbodig maken die tot voor kort alleen door mensen konden worden uitgevoerd. Dit biedt ook veel kansen om wet- en regelgeving toegankelijker te maken, onvoorziene gevolgen of onnodige complexiteit in bestaande en nieuwe regelgeving te identificeren en scenario’s te verkennen.

Als gebruikers van de mogelijkheden van ChatGPT – beleidsmakers en ICT professionals in het bijzonder – hebben we echter een bijzondere verantwoordelijkheid: we mogen ons niet voor de gek laten houden. Pas op voor de neiging om te denken dat ChatGPT daadwerkelijk als mens kan handelen. Daarvoor mist het op zijn minst de eigenschap om te beseffen wat het is om mens te zijn. De technologie van ChatGPT is indrukwekkend. Het is nu aan ons, gebruikers, om op zijn minst net zo indrukwekkend de ethische aspecten van dergelijke technologie te doorgronden en ons gebruik daarop af te stemmen. Zodat we niet toch stiekem in het sprookje van de rode tuinkabouter gaan geloven.

Marco Brattinga

Voeg opmerking toe