VNG Magazine nummer 5, 22 maart 2024

Tekst: Erwin Vogelaar | Beeld: gemaakt met AI/Shutterstock

ChatGPT kan helpen met schrijven, maar het gebruik van deze technologie is niet zonder risico. Zo vertelt de chatbot niet altijd de waarheid, zitten de onderliggende data vol vooroordelen en is de privacy niet gewaarborgd. Toch wordt ChatGPT in gemeenten volop ingezet door ambtenaren.

ChatGPT

Staatssecretaris Alexandra van Huffelen voor digitalisering was afgelopen december duidelijk: ‘Generatieve AI is een veelbelovende en kansrijke ontwikkeling om efficiënter te werken of effectiever publieke doelen te behalen’, schreef ze in een brief aan de Tweede Kamer. ‘De keerzijde is dat naast verschillende kansen ook risico’s bestaan in de toepassing ervan.’ In de brief staat dat het gebruik van AI-toepassingen zoals ChatGPT daarom niet is toegestaan door rijksorganisaties.
Voor de brief heeft Van Huffelen advies ingewonnen bij de landsadvocaat en de Autoriteit Persoonsgegevens (AP), die constateren dat deze technologie niet aantoonbaar aan de geldende privacy- en auteursrechtelijke wetgeving voldoet. De AP laat aan VNG Magazine weten dat deze zorgen niet alleen gelden voor het gebruik bij het rijk, maar voor de gehele samenleving. 
Toch lijkt de technologie binnen gemeenten al compleet ingeburgerd te zijn. Uit rondvraag van EenVandaag bij 137 gemeenten, uitgevoerd in december 2023, blijkt dat 74 procent van de ambtenaren ChatGPT gebruikt om teksten te verbeteren, informatie te zoeken of inspiratie op te doen. 

ChatGPT is gebaseerd op voorspelling en niet op waarheden

‘Het verbaast mij niet’, stelt Olya Kudina, universitair docent ethiek en filosofie van technologie aan de TU Delft met een speciale interesse in AI-ethiek. ‘Mensen willen deze technologie proberen en zien dan al snel de kwaliteit ervan en hoe menselijk het aanvoelt. Ik snap het dus heel goed vanuit de nieuwsgierigheid en de wil om dingen sneller te doen, maar ik maak mij wel zorgen.’

Kansberekening
ChatGPT is een chatbot van het bedrijf OpenAI. Het is een vorm van generatieve kunstmatige intelligentie, die teksten schrijft gebaseerd op kansberekening. Daarvoor wordt ChatGPT getraind met heel veel data, in dit geval teksten van websites en uit boeken. Vanuit die data voorspelt de chatbot wat het volgende woord in een zin moet zijn en dat werkt heel overtuigend. Toch klopt het niet altijd. ‘ChatGPT is gebaseerd op voorspelling en niet op waarheden’, zegt Kudina.
Het is onder andere mogelijk om ChatGPT een tekst te laten schrijven gebaseerd op een kleine opdracht. Ook kun je ChatGPT een zelfgeschreven tekst geven en vervolgens vragen om die te herschrijven, of om tips te geven. In theorie ideaal voor een ambtenaar bij de gemeente die niet goed is in schrijven.

Veel problemen
Maar het gebruik van deze technologie is niet zonder risico. Zo zit ChatGPT vol privacyproblemen. Er is altijd een kans dat wat je in een gesprek met ChatGPT plaatst, elders weer opduikt. ‘Mensen gebruiken vaak de gratis versie en alles wat je daar in zet wordt gebruikt als trainingsmateriaal’, vertelt Kudina. ‘Dat is een groot privacyrisico. Zeker als je werkt met informatie van de gemeente.’
De Autoriteit Persoonsgegevens benoemt ook zorgen over de trainingsdata van generatieve kunstmatige intelligentie, omdat deze mogelijk onterecht verkregen zijn. Daar kan auteursrechtelijk beschermd materiaal tussen zitten, maar ook persoonlijke gegevens die door een ander online zijn geplaatst. Het is niet mogelijk om die persoonsgegevens te laten verwijderen, waardoor ChatGPT niet aan de privacywet AVG voldoet.
‘ChatGPT klinkt heel menselijk en geloofwaardig en ziet er niet zo serieus uit’, vertelt Kudina. Daardoor denk je mogelijk niet direct na over je privacy. ‘Maar tot alles wat je erin zet, kan iemand anders potentieel toegang krijgen.’
Iets waar minder zich mensen bewust van zijn, is dat deze technologie vol zit met vooroordelen. Een bekend voorbeeld van hoe het mis kan gaan, is als kunstmatige intelligentie voor gezichtsherkenning voornamelijk wordt getraind met foto’s van witte mensen. Dan werkt de technologie minder goed voor zwarte mensen. In generatieve kunstmatige intelligentie is dat probleem ook zichtbaar. Vraag je aan een chatbot om plaatjes van dokters te maken, dan kreeg je in de vroege versies van deze technologie standaard plaatjes van witte mannen.

Toeslagenaffaire
In tekst zijn de gevolgen minder concreet, maar het kan daadwerkelijk een groot effect hebben als we allemaal deze technologie gebruiken. De toeslagenaffaire laat zien hoe mis het kan gaan als technologie op de achtergrond vooroordelen heeft. 
Het zijn nogal wat problemen, waar veel mensen geen rekening mee houden. ‘Mensen nemen een afwachtende houding aan, maar als je bij de overheid werkt kun je je dat niet veroorloven’, stelt Kudina. ‘Ik hoop dat gemeenten leiderschap over dit probleem nemen en institutionele richtlijnen voor hun werknemers opzetten. Anders valt de verantwoordelijkheid op de werknemers zelf en dat is oneerlijk.’

Niet transparant
De commerciële bedrijven achter deze chatbots zijn niet transparant over hoe keuzes worden gemaakt. ‘We weten niet veel over hoe deze technologie werkt, omdat de bedrijven daar bewust geheimzinnig over doen’, stelt Kudina. Zo zijn deze bedrijven niet open over op welke data hun chatbot is getraind. De Europese Unie werkt aan een AI-wet die daar opheldering over moet geven.
Ondertussen ziet menig ChatGPT-gebruiker voornamelijk de voordelen van deze technologie. De gemeente Amsterdam stelde onlangs nog naar kunstmatige intelligentie te kijken om ambtenaren te helpen met het schrijven van minder ingewikkelde brieven aan inwoners. De documenten bevatten namelijk te veel lange zinnen met ingewikkelde constructies, en dat leest niet prettig. Kunstmatige intelligentie kan zo’n tekst versimpelen voordat die naar de inwoners gaat. 

Er is altijd een kans dat wat je in ChatGPT plaatst, elders weer opduikt

Een woordvoerder van Amsterdam laat weten dat het nog niet zover is en de mogelijkheden van AI eerst zullen worden verkend. ‘Verder is het goed te weten dat we niet enkel kijken naar AI maar ook naar andere mogelijkheden om de schrijfvaardigheid en daarmee de kwaliteit van raadsbrieven te verbeteren. Zo zijn er bijvoorbeeld een handleiding en speciale schrijftraining ontwikkeld. Een schrijftool gebaseerd op AI zou binnen dit pakket een bruikbare aanvullende maatregel kunnen zijn.’

Wildwestsituatie
‘Ik ben niet tegen het gebruik van generatieve kunstmatige intelligentie, maar wel tegen deze wildwestsituatie waarin alles maar mag’, zegt Kudina. ‘Deze technologie kan heel krachtig zijn om medewerkers van de gemeente te ondersteunen, maar daar zijn regels en de juiste tools voor nodig. Niet deze commerciële tools, maar iets dat speciaal voor hen is gemaakt.’
Karin Bruinenberg van de Autoriteit Persoonsgegevens sluit de deur ook niet voor het gebruik van kunstmatige intelligentie binnen gemeenten: ‘We zijn voor de verantwoorde ontwikkeling en inzet van technologie.’
Staatssecretaris Van Huffelen stelt in haar brief ook dat rijksambtenaren wel gebruik mogen maken van AI-tools die transparantie bieden over met welke data ze zijn getraind, en waar ook duidelijke afspraken met de bedrijven erachter gemaakt kunnen worden over hoe ingevoerde data worden verwerkt. Nederland werkt bijvoorbeeld aan een eigen open taalmodel. Dit GPT-NL moet transparant, eerlijk en toetsbaar zijn.

Milieu
Toch zijn dan nog niet alle zorgen weggenomen. ‘Waar ook niet vaak rekening mee wordt gehouden, is de impact op het milieu’, vindt Kudina. ‘Voor elke twintig opdrachten moeten de dataservers een halve liter drinkbaar water gebruiken. Dat is veel water als we kijken naar de miljoenen mensen die elke dag ChatGPT gebruiken.’ 
Volgens de universitair docent is het daarom niet alleen belangrijk om te snappen hoe deze technologie werkt, maar ook dat we er niet zomaar mee moeten spelen: ‘Het is niet dat we geen kunstmatige intelligentie moeten gebruiken, want het doet ook veel goeds. Alleen moeten we vaker met de vraag beginnen waarom we het willen gebruiken. En als we het dan gebruiken, dan moeten we het bewust doen. Want uiteindelijk ben je zelf verantwoordelijk voor het resultaat.’