Kunstmatige intelligentie kans voor gemeenten: Ambtenaar blijft de baas

VNG Magazine nummer 18, 23 november 2018
 
Auteur: Marten Muskee
 
Het Museumplein in Amsterdam loopt vol met toeristen. Het detectiesysteem speelt dit door naar de verantwoordelijk ambtenaar, die besluit andere attracties elders in de stad bovenaan te laten zetten in de toeristische aanbevelingsapps. De mensenmassa verplaatst zich. ‘Kunstmatige intelligentie kan de gemeente enorm helpen, maar volg nooit blindelings de aanbeveling van een machine op’, stelt hoogleraar Maarten de Rijke.


 
Het intelligente systeem observeert niet alleen mensenmenigtes, maar kan ook de stemming peilen en indien nodig een suggestie doen om een handeling te verrichten. ‘De mogelijkheden zijn legio’, aldus De Rijke, ‘maar de ambtenaar hoort zeker in deze gevallen het besluit te nemen. Camera’s kunnen interpreteren of mensen om een positieve reden opgewonden raken of agressief worden. Het apparaat mag bij de constatering dat er paniek ontstaat niet zomaar tweehonderd agenten erop afsturen. De ambtenaar interpreteert  en is verantwoordelijk voor de vervolgactie.’ De Rijke is aan de Universiteit van Amsterdam verbonden aan de vakgebieden kunstmatige intelligentie (zie kader), zoekmachines en aanbevelingssystemen. Allerlei intelligente systemen vinden her en der al ingang binnen de samenleving. Hoewel voor het lokaal bestuur nog een onontgonnen terrein, valt er wat hem betreft een wereld te winnen met artificiële intelligentie. 

Lerende systemen 

Bij kunstmatige intelligentie gaat het om lerende systemen. Een camera bij een brug kan al dan niet het besluit nemen de brug omhoog te laten gaan. Het systeem is er na invoer van veel afbeeldingen van vaartuigen op getraind om een boot te herkennen. Bij een spamdetector werkt het net zo, alleen daar gaat het niet om geometrische patronen, maar patronen in de tekst. Waar gaat het over in de mail en waar komt die mail vandaan? De machine leert met combi’s van kenmerken spam te onderscheiden nadat het systeem gevoed is met positieve voorbeelden (wel een boot, of wel spam) en negatieve voorbeelden (geen boot, of geen spam). 
‘Een intelligent apparaat wordt gevoed met data voordat het systeem online gaat’, zegt De Rijke. ‘Dat is echter niet voldoende, de wereld verandert snel en daarom moeten deze systemen bijleren.’ Zo ontwikkelt artificiële intelligentie zich online in de werkelijke wereld door nieuw leermateriaal. Dat kan bijvoorbeeld de negatieve feedback zijn van mensen over een bepaald product dat ze kregen aangeboden of de klacht over een nieuw soort spammail dat door het vangnet is geglipt.

Stel voorop dat het de mens is die het besluit neemt

‘De machine leert bij van de signalen van de mens en stelt zelf de schroefjes bij.’  De Rijke is ervan overtuigd dat een gemeente via kunstmatige intelligentie het contact met inwoners kan verbeteren. Als voorbeeld noemt de hoogleraar Amsterdam, een stad met veel nationaliteiten en inwoners en bezoekers met veeltalige achtergronden. De basisinformatie van de gemeenten is in enkele talen beschikbaar. ‘Vrijwel iedereen, van vluchteling tot expat, beschikt over een mobiele telefoon. De gemeente kan al die mensen van informatie voorzien via een automatisch vertaalsysteem. Dat zal niet perfect zijn, maar het slaat wel een brug. Dat is technologisch uitdagend. Met name voor exotische talen zijn niet zo veel data voorhanden en vertaalalgoritmes leren juist van data. Dat moeten we dan op de een of andere manier omzeilen.’   

Gat in de stoep

Artificiële intelligentie wordt daar ingezet waar we met complexe afstemming en op basis van veel onzekere factoren een beslissing moeten nemen. Een gemeente zou artificiële intelligentie bijvoorbeeld kunnen inzetten voor inwoners die melding maken over iets wat in de openbare ruimte is gebeurd. Het apparaat kan de melding automatisch classificeren, interpreteren en doorzetten naar de juiste afdeling. ‘Stel, iemand stuurt een foto door van een gapend gat in de stoep na zware regenval. Het apparaat interpreteert wat er aan de hand is en wat er gedaan moet worden. Vervolgens doet het systeem een suggestie wie er iets mee moet en wat.’ 

De politie experimenteert samen met de Universiteit Utrecht al met eenzelfde soort systeem voor aangiften. Het apparaat controleert of alles volledig is opgenomen zodat een medewerker achteraf niet hoeft te bellen. Daarmee wordt vertraging voorkomen, net als frustratie bij de burgers. De Rijke erkent dat een machine niet feilloos is. Een systeem dat de verkeerde boeken aanbeveelt, zorgt voor een dalende omzet van de winkel. Daar kan de ondernemer iets aan doen. Een aanbevelingssysteem dat kinderen suggereert naar welk middelbaar onderwijs ze moeten doorstromen en een fout maakt, is van een heel andere orde want dat grijpt in levens in. 

Koudwatervrees of angst voor artificiële intelligentie is echter onnodig, volgens De Rijke. Er gelden enkele basisvoorwaarden. De algoritmiek moet zo goed mogelijk zijn waarbij partijen met elkaar afspreken hoe vaak een algoritme ernaast mag zitten. ‘Perfect wordt het nooit, net als bij mensen, dus wat is een acceptabele foutenratio?’  De Rijke noemt dat een belangrijke vraag, zeker als het gaat om ingrijpende levenskeuzes of moralistische vraagstukken. Tegelijkertijd wijst hij op het feit dat er ook algoritmes bestaan die beter dan specialisten in staat zijn om potentiële gevaren in medisch beeldmateriaal te herkennen. ‘Partijen kunnen veel voordeel halen uit artificieel intelligente systemen, maar ze moeten er wel samen afspraken over maken. Besluit bij welke soorten vraagstukken een machine een suggestie kan doen en stel voorop dat het de mens is die het uiteindelijke besluit neemt.’ 

‘Zie het als suggestie’

Gemeenten moeten nog wel wat vraagstukken oplossen voor ze intelligente systemen inzetten. Zijn er voldoende data aanwezig of is er een systeem beschikbaar om die binnen te halen? Ook moet de gemeente antwoord hebben op de vraag van wie de data zijn en hoe deze wordt bewaakt. De systemen kunnen op verschillende manieren aanbevelingen en suggesties doen aan ambtenaren. Die moeten dat goed weten te interpreteren, want een systeem maakt fouten en daar ligt een risico. ‘Volg zo’n aanbeveling dus niet blindelings op, maar zie het als een suggestie zoals je van een collega krijgt. Die volg je ook niet blindelings op, maar neem je mee in de afweging. Mensen die met algoritmes werken horen dat op dezelfde manier te doen.’  Het draait wat De Rijke betreft allemaal om transparantie van de algoritmes en om de digitale vaardigheden van ambtenaren. Die moeten begrijpen wat het betekent als een machine een aanbeveling doet. Het is slechts een van de vele argumenten die een ambtenaar krijgt aangereikt om tot een beslissing te komen. Het stellen van de vraag aan een machine hoe het tot een suggestie kwam, is nog een kwestie van lopend onderzoek. Gebruikers van het systeem moeten ook daadwerkelijk iets kunnen met de uitleg van een apparaat. 

Perfect wordt het nooit, net als bij mensen

‘Dat geldt overigens zeker ook voor burgers. Artificiële intelligentie kan helpen bij het opsporen van sociale fraude. Een systeem ziet bijvoorbeeld dat een lopende casus erg lijkt op een eerder dossier waarbij fraude werd gepleegd. Het apparaat zal dan de ambtenaar adviseren daarnaar te kijken. Inwoners die door zo’n keuze getroffen worden, hebben het recht de opsporingsambtenaar om uitleg te vragen en van hem wordt verwacht dat hij met feiten komt. De ambtenaar mag een antwoord van een machine dus nooit voor lief nemen.’  Volgens De Rijke zit daar een interessant spanningsveld, mensen volgen vaak, om diverse redenen als gemakzucht of sociale druk, blindelings wat de machine suggereert. ‘Neem het videosysteem bij voetbalwedstrijden ter ondersteuning van de scheidsrechter. Voor hem wordt het heel moeilijk om het met de suggestie van het systeem oneens te zijn.’ 

Veilig

Gemeenten die met artificiële intelligentie aan de slag willen, moeten met drie aspecten rekening houden: human resources, technologie en regelgeving. ‘We verwachten van de overheid dat alles perfect loopt. Risico nemen is niet eigen aan de overheid, maar dat kan innovatie in de weg staan. Faciliteer dus een veilige experimenteeromgeving, net als veilige plekken om met zelfrijdende auto’s te experimenteren. Haal daarnaast de juiste technologie in huis om data op te halen en afgeschermd te beheren. Haal ook de juiste medewerkers in je organisatie, zowel techneuten als ambtenaren die met de uitkomsten kunnen omgaan.’ 

Als er serieuze vraagstukken zijn en er zijn middelen om daarbij te helpen, dan ziet De Rijke het als een zekere plicht om die middelen in te zetten. ‘Nog steeds zijn er elk jaar duizenden kinderen die een verkeerde middelbareschoolkeuze maken. Er spelen zo veel factoren mee dat het fout kan gaan. Geef de technologie daarbij een kans, niet om te beslissen, maar om te helpen een betere beslissing te maken. Niemand kan in de toekomst kijken, maar we kunnen wel kijken naar de keuzes die in het verleden zijn gemaakt, welke factoren daarbij meespeelden en wat er vervolgens met zo’n kind gebeurde in de latere opleiding en loopbaan. Die data zitten gewoon in onze overheidssystemen. Zet dat in.’

Artificiële intelligentie


Bij artificiële intelligentie gaat het volgens hoogleraar Maarten de Rijke om systemen die de wereld om zich heen voor een deel kunnen waarnemen, situaties kunnen interpreteren en tot op zeker hoogte kunnen handelen op basis van wat ze om zich heen menen te zien. Ook weten ze welke consequenties dat handelen heeft. De hoogleraar noemt de zelfrijdende auto die een lege weg ziet en gas blijft geven. Een tweede voorbeeld zijn de aanbevelingssystemen van postorderbedrijven die beslissingen nemen over welke producten de gebruiker te zien krijgt. ‘Het systeem probeert te begrijpen wat de gebruiker boeiend vindt en wat niet.’ 

Sinds begin jaren vijftig wordt er al aan kunstmatige intelligentie gewerkt. Het feit dat dit nu ineens zo veel krachtiger en meer aanwezig is, heeft volgens De Rijke met drie oorzaken te maken. Er zijn tegenwoordig ontzettend veel data voorhanden en die zijn nodig om van te leren. Daarnaast hebben systemen veel meer rekenkracht en zijn er betere leermethodes voor de algoritmen ontwikkeld. ‘De aanwezigheid van big data is een eerste voorwaarde voor het functioneren van kunstmatige intelligentie, daar wordt van geleerd en daar zie je de connectie met data science.'

Data worden eerst vergaard, dan opgeschoond en gestructureerd. Vervolgens is het de rol van kunstmatige intelligentie om daar inzichten uit te halen. 'Met die inzichten wordt een advies gegeven of kan een apparaat tot op zekere hoogte zelfstandig handelen. Dat is een heel lang traject en zonder dat voorstuk van het vergaren, opschonen en structureren van data, zou een intelligent systeem weinig kunnen.’