AI is een systeemtechnologie, te vergelijken met elektriciteit en de verbrandingsmotor. Een systeemtechnologie heeft een grote impact op de samenleving, die vooraf niet kan worden voorzien.
Uit rapport 'Opgave AI. De nieuwe systeemtechnologie' (2021) - Wetenschappelijke Raad voor het Regeringsbeleid (WRR).
Samenvatting
Deze analyse gaat over AI en algoritmen volgens de definitie van de EU High-level expert group: 'systemen die intelligent gedrag vertonen door hun omgeving te analyseren en – met enige graad van autonomie – actie te ondernemen om specifieke doelen te bereiken'. Over de specifieke AI-toepassing taalmodellen (Large Language Models met ChatGPT als bekendste voorbeeld) volgt nog een publicatie.
De markt drijft hypes aan rondom AI en algoritmen en belooft gouden bergen, maar wetenschappers en adviesraden zoals de WRR waarschuwen om de beloftes en de inzet van AI kritisch te benaderen. Gemeenten en andere overheden kunnen deze technologie gebruiken om maatschappelijke opgaven aan te pakken, maar er liggen in het gebruik van AI en algoritmen ook nog uitdagingen en ethische vraagstukken op het gebied van transparantie, verantwoording, privacy en procedurele rechten. De WRR spreekt van een ‘kantelpunt’ in deze systeemtechnologie, waarbij overheid en samenleving voor 5 opgaven staan bij AI: demystificatie, contextualisering, engagement, regulering en positionering.
De afgelopen jaren kwam steeds meer beleid om de ontwikkeling en inzet van AI te begeleiden en deze opgaven het hoofd te bieden. Op Europees niveau is de AI Act in ontwikkeling om deze technologie te reguleren. Ook worden er handreikingen ontwikkeld om ethisch en maatschappelijk verantwoord met AI en algoritmen om te gaan. Nationaal zijn 3 actielijnen ingezet voor het gebruik van algoritmen door overheden: het algoritmeregister, een algoritmetoezichthouder en het implementatiekader voor de toepassing van algoritmen
Ook gemeenten en de VNG zijn volop bezig om deze systeemtechnologie in goede banen te leiden en te implementeren. De VNG roept namens gemeenten de rijksoverheid en de EU op om bij de ontwikkeling wet- en regelgeving rondom AI aandacht te hebben voor uitvoerbaarheid, dat kan bijvoorbeeld met behulp van uitvoeringstoetsen. Toepassingen van AI door gemeenten vinden niet alleen plaats om efficiënter en effectiever te werken, maar kunnen ook een rol spelen in het versterken van publieke waarden zoals privacy.
Inleiding
Kunstmatige (of Artificiële) Intelligentie (AI) bestaat al in veel verschillende vormen. Het kan gaan om chatbots die de klantenservice ondersteunen, spraakassistenten zoals Siri en Alexa, aanbevelingssystemen op streamingplatforms, geautomatiseerde vertaaltools en zelfs autonome voertuigen. Ondanks deze verscheidenheid aan verschijningsvormen staan we als samenleving pas aan het begin van de ontwikkeling van gevorderde AI en (slimme) algoritmen. AI-technologieën worden steeds geavanceerder en zullen een grotere impact hebben op ons dagelijks leven. AI bestaat al een tijd (denk bijvoorbeeld aan schaakcomputers) maar de manier waarop we het nu gebruiken is radicaal anders, en zo ook de nieuwe typen AI. Hoewel we al veel vooruitgang hebben geboekt, zijn er nog steeds uitdagingen en ethische vraagstukken op het gebied van transparantie, verantwoording van het gebruik, privacy en procedurele rechten.
Ondertussen is er ook sprake van een grote ‘market push’ rondom AI. Het is makkelijk om meegezogen te worden in de hype, zeker met grootse en meeslepende toepassingen als ChatGPT. Bedrijven positioneren AI-systemen regelmatig als een ‘quick fix’ voor alle mogelijke problemen in de wereld. En het zou ook fantastisch zijn als onze problemen met één druk op de knop worden opgelost. Dit beeld doet echter geen recht aan de complexiteit van onze samenleving waarin veel problemen samenhangen. Quick fixes pakken niet de onderliggende problemen aan. Het is slechts pleisters plakken, symptoombestrijding. De WRR zegt dat AI de samenleving fundamenteel kan veranderen: maar dan niet via hypes, maar geleidelijk, omdat AI zich moet voegen aan de mens die betekenis geeft aan de technologie, aan de regels, aan cultuur.
Deze analyse beoogt gemeenten te informeren over alleen de meest relevante ontwikkelingen rondom AI en algoritmen. Daartoe gaat dit stuk in op de meest recente technologische ontwikkelingen, wetenschappelijke inzichten en ontwikkelingen in het beleid omtrent AI. Eerst komt het WRR-rapport Opgave AI aan bod, gekoppeld aan de gemeentelijke context. Vervolgens worden de beleidsontwikkelingen vanuit de rijksoverheid rondom algoritmen uitgelicht. En tot slot volgen er enkele gemeentelijke voorbeelden van AI-toepassingen en -beleid.
Analyse
Definitie
Het is belangrijk om te beginnen met de vraag: waar hebben we het eigenlijk over? Wat is ‘AI’? En wat is het verschil met de term ‘algoritmen’? Het rapport van de WRR, Opgave AI. De nieuwe systeemtechnologie, beschrijft de afwegingen die zij maken rondom de definitiekwestie van AI. Hierbij is de uitdaging dat er niet écht één definitie van AI is, maar wel kenmerken waar men het over eens is. Dit gaat verder dan een louter semantische discussie. De definitie van AI in de AI act kan tot gevolg hebben dat deze niet van toepassing is buiten de EU, omdat ze daar een andere betekenis hebben voor AI. Welke systemen wel of niet onder nieuwe wetgeving valt, is afhankelijk van de definitie van AI die in die wetgeving (Europees of nationaal) wordt bepaald. Deze definitie kan wel eens losstaan van definities in de wetenschap of techniek.
Het WRR-rapport komt uit bij algemene definitie van de EU High-level expert group: ‘systemen die intelligent gedrag vertonen door hun omgeving te analyseren en – met enige graad van autonomie – actie te ondernemen om specifieke doelen te bereiken’. Onder deze definitie vallen naast de geavanceerde technieken van machine learning en deep learning dus ook andere technieken, waaronder de genoemde traditionelere benaderingen die veel overheidsinstellingen gebruiken (bijvoorbeeld Excel-tabellen met rekenregels).
Kantelpunt
We staan momenteel op een kantelpunt als het gaat om de ontwikkeling van AI. Toonaangevende instituten waarschuwen dat AI de wereld op een ingrijpende manier kan veranderen. Het is aan de overheid om de kansen van AI te benutten en de risico’s te mitigeren, maar daarop is zij nu nog onvoldoende voorbereid.
Tegelijkertijd is er sprake van een grote hype rondom AI, meest recent weer aangewakkerd door de snelle ontwikkeling van zogeheten ‘Large Language Models’. Veel technologiebedrijven hebben een commercieel belang om een narratief te schetsen dat ontwikkelingen op het gebied van AI heel snel gaan, waarmee ze inspelen op ‘fear of missing out’ (‘u wilt toch niet achterblijven?’) van zowel publieke als private organisaties.
Eind maart publiceerde het Future of Life Institute een oproep om de training en ontwikkeling van zeer geavanceerde AI-systemen tijdelijk stil te leggen omdat zulke systemen ‘diepgaande risico’s kunnen vormen voor de samenleving en de mensheid’. Deze diepgaande risico’s gaan onder andere om het voortbestaan van de mensheid, mochten AI-systemen zich tegen ons keren. Gegeven het feit dat veel ondertekenaars bij gigantische technologiebedrijven met een monopoliepositie werken, wijzen kritische wetenschappers erop dat dit soort initiatieven afleidingsmanoeuvres zijn van problemen die zich nu al voordoen bij AI-systemen en algoritmen, zoals bias, discriminatie en stigmatisering.
Veel wetenschappers stellen bovendien dat de zogenoemde ontwrichtende effecten van AI op de samenleving niet zo’n vaart zullen lopen. In een eerdere analyse over AI stelden we al dat het veelal om ‘narrow AI’ gaat en dat ‘general AI’ nog ver weg is. Systemen als ChatGPT zijn niet ‘slim’ en kunnen taal nog steeds niet begrijpen, zoals blijkt uit de vele manieren waardoor deze systemen om de tuin worden geleid. Desalniettemin bestaan er voldoende AI-toepassingen die veel aandacht verdienen. De inzet van simpele algoritmen zoals de fraudescorekaart bijvoorbeeld.
Rode draden uit wetenschap
Wetenschappers bogen zich veelvuldig over de ontwikkeling en maatschappelijke inbedding van AI. De WRR beschrijft in dit kader ‘5 opgaven’ voor overheid en samenleving:
- Demystificatie
- Contextualisering
- Engagement
- Regulering
- Positionering
Demystificatie: van beeld naar begrip
Met ‘demystificatie’ bedoelt de WRR dat er een realistischer begrip van AI moet komen. Er bestaan veel beelden van wat AI is of kan, zoals de mythe dat AI-systemen objectief zijn, de gedachte dat AI-systemen het menselijk vermogen zullen voorbijstreven, of dat AI zich tegen de mensheid zal keren. Echter, zulke hoge verwachtingen zijn onrealistisch en kunnen leiden tot teleurstellingen en onbezonnen toepassingen van de technologie.
Voor gemeenten betekent demystificatie 2 dingen. Ten eerste is het advies om leren over AI tot integraal onderdeel van het functioneren van het lokaal bestuur te maken. Een belangrijk onderdeel daarvan is een kritische opstelling ten opzichte van partijen die hoge verwachtingen uitspreken over de mogelijkheden van AI. Ten tweede adviseert de WRR om ook richting de samenleving in te zetten op ‘AI-wijsheid’. Dit kunnen gemeenten onder meer doen door meer openheid te geven over het eigen gebruik van AI en het bestuurlijke, politieke en maatschappelijke gesprek hierover te voeren.
Contextualisering: van techniek naar toepassing
‘Contextualisering’ gaat over het creëren van aandacht voor het bredere (technische) ecosysteem, de context waarvan AI deel uitmaakt. Allerlei ondersteunende technologieën zijn nodig om AI toe te passen, zoals kwalitatief goede data, telecommunicatienetwerken, chips en supercomputers. Bovendien moet er altijd sprake zijn van een goede mens-machine-interactie bij AI. De WRR pleit ervoor om ook de toepassing van AI in het beleid op te nemen, naast de techniek zelf.
Gemeenten kunnen hier op 2 manieren invulling aan geven. Om te beginnen kunnen ze prioriteren in de toepassingsgebieden van AI. Dat wil zeggen dat gemeenten keuzes maken en voorrang geven aan de ontwikkeling van AI in specifieke domeinen en sectoren. Daarnaast is het van belang om voldoende aandacht te hebben voor de mens-machine-interactie. Via opleiding en certificering kunnen gemeenten degenen die in hun werk AI hanteren of daarvoor verantwoordelijk zijn uitrusten met voldoende kennis en vaardigheden.
Engagement: van monoloog naar dialoog
De opgave rondom ‘engagement’ gaat om de vraag wie er betrokken zijn bij de ontwikkeling van AI. De WRR beschrijft: ‘In de huidige situatie is het vooral een groep technische specialisten die bij de ontwikkeling de vraagstukken rondom AI bespreekt (monoloog), terwijl dit ook een zaak zou moeten zijn van allerlei andere partijen en organisaties (dialoog)'. Inwoners en maatschappelijke organisaties kunnen essentiële expertise inbrengen en zo de afstand tussen de (technische) ontwikkelaars van AI-systemen en de maatschappelijke omgeving waarin de systemen worden toegepast verkleinen.
De belangrijkste manier voor gemeenten om invulling te geven aan deze opgave is door een goede terugkoppeling te ontwikkelen tussen praktijk en tekentafel. De uitkomsten van AI-systemen worden nog onvoldoende geëvalueerd. Gemeenten kunnen inwoners en maatschappelijke organisaties faciliteren in het opdoen van kennis over AI en deze groepen een stem geven in AI-discussies, ook in de terugkoppeling over de uitwerking van AI-systemen. Dit geldt niet alleen voor de techniek, maar ook voor het beleid hierover.
Regulering: van reactie naar regie
Volgens de WRR richten huidige reguleringsvoorstellen, waaronder de Europese AI Act, zich voornamelijk op ‘acute en relatief helder afgebakende vraagstukken, zoals het gebruik van algoritmen voor fraudebestrijding, bias en discriminatie, transparantie en onbetrouwbare uitkomsten’. De raad adviseert om nu al na te denken over de inrichtingsvraagstukken waar een samenleving met AI voor komt te staan, zoals die rondom de ‘digitale leefomgeving’.
Voor gemeenten is hier een secundaire taak weggelegd. De Europese Unie en de rijksoverheid zijn in eerste instantie aan zet om de regie te pakken, zoals de WRR aanbeveelt. Het doel hierbij moet zijn om met name actief te sturen op ontwikkelingen rondom surveillance en dataverzameling, de scheve verhouding tussen publiek en privaat in het digitale domein en machtsconcentratie. Daarbij is het uiteraard wel van belang om de gemeentelijke belangen te borgen.
Positionering: van natie naar netwerk
Met ‘positionering’ doelt de WRR op de positie die Nederland inneemt op het internationale toneel. In die context wordt veelal gesproken van een ‘AI-race’, met de Verenigde Staten en China als koplopers. De Raad adviseert echter om dit perspectief los te laten en juist de samenwerking op te zoeken. Gezamenlijk standaarden voor AI ontwikkelen kan leiden tot een sterke bijsturing in (het gebruik van) de technologie.
Voor gemeenten is het zodoende zaak om de ingeslagen weg door te zetten. De gepercipieerde ‘race’ vindt vooral plaats in het terrein van de geopolitiek, waar gemeenten minder mee van doen hebben. Het blijven investeren in netwerken en samenwerkingsverbanden, met name binnen de EU, verdient aanbeveling en vindt al plaats, bijvoorbeeld via Eurocities. Begin dit jaar publiceerden ze standaarden voor transparant gebruik van AI.
Kerninzicht
Een kerninzicht dat door deze rode draden heen loopt, is dat AI tot een machtsverschuiving kan leiden in verschillende verhoudingen: tussen inwoner en overheid, overheid en markt, en inwoner en markt. Besef dat AI altijd een eigenaar heeft en zodoende wordt ingezet om de belangen van de eigenaar te dienen. De kunst is om als overheid zo te sturen dat AI de collectieve belangen van de samenleving dient en niet slechts die van een kleine groep mensen. Of, zoals in het gerenommeerde Nature werd gesteld: 'Don’t ask if artificial intelligence is good or fair, ask how it shifts power'.
Beleidsontwikkelingen
Europa
In april 2021 publiceerde de Europese Commissie een voorstel voor een Wet op de Artificiële Intelligentie (of AI Act). Hierover schreef de VNG een uitgebreid position paper (pdf, 631 kB). De EU-lidstaten stemden unaniem in met de Raadstekst en daarmee namen ze ook hun positie in. Op 14 juni 2023 stemde het Europees Parlement in met de tekst. Een uiteindelijk akkoord wordt hopelijk eind 2023 of begin 2024 verwacht.
Parallel aan deze ontwikkelingen werkt de Raad van Europa aan een AI-verdrag. Dat verdrag zal verdragspartijen verplichten regels op te stellen om mensenrechten, de democratie en rechtsstaat te beschermen bij de ontwikkeling en het gebruik van AI-systemen.
Daarnaast komt het Congres van Lokale en Regionale Overheden binnenkort met een Handboek Mensenrechten: Human Centred Artificial Intelligence. Het doel van dit vierde deel (eerdere delen gingen over non-discriminatie, sociale rechten en milieu, en duurzaamheid) is om de impact van digitalisering en kunstmatige intelligentie op lokaal mensenrechtenbeleid te analyseren en gemeenschappelijke trends te identificeren op lokaal niveau. Dit handboek presenteert de best practices en kan worden geraadpleegd als hulpmiddel door lokale en regionale overheden die maatregelen willen nemen ter bevordering van de mensenrechten.
Rijk
De Werkagenda Waardengedreven Digitalisering geeft richting op het gebied van digitalisering. De werkagenda is de verdere operationalisering van het coalitieakkoord en de hierop volgende hoofdlijnenbrief digitalisering.
De werkagenda bevat 7 acties voor het reguleren van algoritmes. Het rijk werkt hier samen met medeoverheden aan. Zoals bij 3 actielijnen die veel impact zullen hebben om het gebruik van algoritmen door de overheid:
- het inrichten van een publiek algoritmeregister
- de oprichting van een algoritmetoezichthouder
- de ontwikkeling van een implementatiekader voor de toepassing van algoritmen
Algoritmeregister
Het Algoritmeregister van de Nederlandse overheid is een instrument om het vertrouwen in de overheid te vergroten en bij te dragen aan transparantie en democratische legitimiteit. De transparantie van het register faciliteert het politiek-maatschappelijke gesprek over de inzet van algoritmes: Wat zijn de bestuurlijke keuzes en wat zijn daarvan de consequenties?
Het algoritmeregister bestaat inmiddels een half jaar. Bij de introductie stonden er 109 algoritmen in. De teller staat inmiddels op 117. Veel registraties komen van gemeenten zoals Utrecht (38) en Den Haag (26). De logische conclusie lijkt dan ook te zijn dat het register wel leeft bij verschillende overheidsorganisaties, maar dat dit nog niet resulteert in ingevulde algoritmen. Een interbestuurlijke werkgroep is hard aan het werk om organisaties te ondersteunen bij het invullen van het algoritmeregister. De werkgroep publiceert binnenkort een 'Handreiking Algoritmeregister' en 'Handleiding Publicatiestandaard'.
De handreiking algoritmeregister is bedoeld voor professionals bij overheidsorganisaties die aan de slag willen en kunnen met het publiceren van algoritmes. Hier staan werkdefinities, kaders en procesvoorstellen in, waarmee iedere organisatie aan de slag kan op een manier die past bij haar unieke kenmerken. De Handleiding Publicatiestandaard bevat een toelichting op de velden van het Algoritmeregister van de Nederlandse overheid. Het is bedoeld om overheidsorganisaties te helpen bij het invullen. Beide hulpstukken zijn nog in ontwikkeling en functioneren als levende documenten die naargelang de doorontwikkeling van het register ook meegroeien.
Algoritmetoezichthouder
Begin dit jaar gaven minister Franc Weerwind (Rechtsbescherming), staatssecretaris Alexandra van Huffelen en Aleid Wolfsen (voorzitter Autoriteit Persoonsgegevens) het startsein voor het overkoepelende en domeinoverstijgende toezicht op algoritmes.
De algoritmetoezichthouder richt zich voor een groot gedeelte op het toezicht bij overheden. Dit moet leiden tot meer grip en verantwoord algoritme-gebruik. Binnen de AP is er een organisatieonderdeel opgezet met de nieuwe taken: de directie Coördinatie Algoritmes (DCA). Een van de uitgangspunten is dat het bestaande toezicht op algoritmes & AI intact blijft. Dit toezicht ligt bij verschillende colleges, markttoezichthouders en rijksinspecties.
Voor 2023 pakt de AP de volgende concrete activiteiten op in het kader van algoritmetoezicht:
- Het verzamelen van sector- en domeinoverstijgende signalen en inzichten over de risico’s en effecten van algoritmegebruik om deze vervolgens te analyseren en de kennis daarover te delen. Met als doel het toezicht te versterken.
- Zorgen voor een intensievere samenwerking met andere toezichthouders, zodat risico’s van algoritmegebruik eerder aan het licht komen, effectiever worden aangepakt of zelfs worden voorkomen. Dit gebeurt hoofdzakelijk via bestaande samenwerkingsverbanden zoals het Samenwerkingsplatform Digitale Toezichthouders (SDT).
- Het bevorderen van gezamelijke normuitleg en guidance. Bijvoorbeeld over transparantieverplichtingen in de verschillende wet- en regelgevingen. Ook faciliteren ze het gezamenlijk uitleggen van juridische normen en kaders voor de inzet van algoritmes en AI. Waar nodig zoeken ze daarbij, in samenwerking met de andere toezichthouders, aansluiting bij de internationale standaardisatie.
Eind 2023 komt de AP met een gezamenlijk rapport om de ontwikkelingen in het algoritmetoezicht en de risico’s van algoritmes inzichtelijk te maken. Dit rapport wordt ook aan de Tweede Kamer aangeboden.
Implementatiekader Algoritmen
Een derde lijn uit de Werkagenda Waardengedreven Digitaliseren is de ontwikkeling van een implementatiekader. Het implementatiekader moet overheden ondersteunen bij de verantwoorde inzet van algoritmes. Daartoe biedt het implementatiekader een overzicht van de belangrijkste eisen, normen en maatregelen waaraan voldaan moet worden, of die als suggestie dienen voor het waarborgen van publieke waarden.
Het implementatiekader is echter niet bedoeld als alomvattend. Het richt zich op de meest impactvolle algoritmes en de generieke elementen die daarbij van belang zijn. Veel sectorspecifieke toepassingen kennen daarnaast aanvullende vereisten die niet allemaal te vatten zijn in één kader. Het implementatiekader dient dan ook niet als 'checklist', en ontslaat gebruikers niet van de plicht om gezien nieuwe ontwikkelingen en casusafhankelijkheden zelf te blijven nadenken en waar nodig aanvullend advies in te winnen, bijvoorbeeld bij waardenspanningen en ethische dilemma’s.
Doelgroep van het implementatiekader is de gehele overheid (rijk, provincies, gemeenten en waterschappen). In beginsel is het implementatiekader er voor iedereen maar het richt zich met name op de rollen die betrokken zijn bij de ontwikkeling van algoritmes, alsook de implementatie, het toetsen daarvan en de verantwoording.
Voorbeeld: Multi-Party Computation casus van SVB
Veel financieel kwetsbare ouderen weten vaak niet dat zij recht hebben op een aanvullende inkomensvoorziening. De SVB wil deze ouderen proactief benaderen, zoals ze dat nu al doen voor de Algemene Ouderdomswet (AOW). Echter, voor de Aanvullende Inkomensvoorziening Ouderen (AIO) zijn bepaalde inkomensgegevens nodig waar het SVB niet over beschikt, en die ze ook niet mogen hebben. Hiervoor wordt de innovatieve technologie genaamd Multi-Party Computation (MPC) ingezet.
MPC is een zogenaamde Privacy Enhancing Technology (PET). In deze technologie wordt met complexe algoritmes de data van verschillende partijen opgeknipt, versleuteld, en verdeeld over verschillende systemen. Geen van de deelnemende partijen kan iets van originele data zien, de SVB heeft dus geen toegang tot privacygevoelige inkomensgegevens van het UWV. De deelnemende partijen mogen wel bepaalde vragen (queries) stellen aan het systeem. De SVB kan met een BSN vragen of deze persoon recht heeft op de AIO. De MPC-algoritmes kunnen dit berekenen zonder toegang te verlenen tot de onderliggende data. Het MPC systeem neemt zo op een technische manier de rol in van een 'trusted third party'.
- Meer over de SVB-pilot AIO
- 'Privacy Enhancing Technologie; over kunnen en willen' (iBestuur)
'Secure Multi-Party Computation' (TNO)
Gemeenten
Ook op lokaal niveau zijn er allerlei initiatieven op het gebied van AI. Dit loopt uiteen van belangenbehartiging en kaderstelling tot de werkelijke toepassing van AI. Zo wordt AI bijvoorbeeld ingezet om grip te krijgen op de financiën in het sociaal domein, maar ook om gebruikte gegevens te anonimiseren en zo de privacy van inwoners te vergroten. We noemen hierbij enkele voorbeelden, maar dit is absoluut niet uitputtend – er zijn te veel voorbeelden om op te noemen.
Wmo Voorspelmodel
Met het Wmo voorspelmodel kunnen gemeenten op wijk- en gemeenteniveau zien hoeveel mensen de komende vijf jaar gebruik zullen maken van Wmo-voorzieningen. Het Wmo voorspelmodel gebruikt een algoritme, gebaseerd op open data voornamelijk uit de Gemeentelijke Monitor Sociaal Domein. De voorspellingen worden getoond in een dashboard. Het model is ontwikkeld door data scientists van VNG en gemeenten, in samenwerking met eindgebruikers. Sinds 20 januari 2022 is het voorspelmodel openbaar toegankelijk, net als de achterliggende code en het algoritme.
Computer vision: AI voor anonimiseren van beelden
De gemeente Utrecht onderzoekt of het camerabeelden kan hergebruiken voor meerdere doeleinden, om de hoeveelheid van camera’s in de stad tegen te gaan. Een specifieke vraag richt zich op het gebruik van beelden van scanauto’s voor de detectie van afvalbijplaatsingen. Hierbij onderzochten ze mogelijkheden onderzocht om beelden (deels of gedeeltelijk) te anonimiseren, bijvoorbeeld door ze te blurren door middel van een algoritme. Juridisch gezien is het anonimiseren van beelden wel opnieuw een verwerking van persoonsgegevens. Maar als data eenmaal voldoende anoniem zijn dan kunnen ze voor andere doelen hergebruikt worden. Lees hier het adviesrapport over meervoudig datagebruik (pdf, 1.7 MB).
Gemeentelijk beleid: VNG Position Paper AI
In VNG Position paper Kunstmatige intelligentie (pdf, 631 kB) gaven we een aantal aanbevelingen aan de Europese Commissie en indirect ook de rijksoverheid. In het kort gaat het om de volgende aandachtspunten:
- Ten eerste is er duidelijkheid nodig over de rollen ‘leverancier’ en ‘gebruiker’: een inkopende gemeente (gebruiker) zou door de huidige onduidelijk van de AI Act onbedoeld in de rol van leverancier terecht kunnen komen en opgescheept zitten met lasten die bij de ontwikkelaar horen.
- Ook moet er ondersteuning komen voor gemeenten en uitvoerders, en het perspectief van uitvoerbaarheid aan de voorkant moet worden meegenomen.
- Een derde aandachtspunt betreft de definitie van AI, als deze te nauw is kan dat veel administratieve last schelen. Maar als praktijken zoals SyRI en het kinderopvangtoeslagenschandaal er niet onder vallen dan worden inwoners onvoldoende beschermd
Verder is een belangrijk aandachtspunt dat de gemeente altijd eindverantwoordelijk is voor de gevolgen bij werken met AI. Het College voor de Rechten van de Mens benoemt dat nationale regels en wetten door (software)bedrijven worden geïnterpreteerd en in algoritmes worden vastgelegd. Gemeenten kopen de software in, zonder dat duidelijk is hoe de wetten precies zijn geïnterpreteerd. Maar als dit mis gaat en mensenrechten worden geschonden door het gebruik van de software, dan is de gemeente daarvoor verantwoordelijk. Het is dus cruciaal om als gemeente te weten wat je inkoopt, hoe de algoritmes werken en hoe men de wet interpreteert. Hiervoor is meer transparantie nodig, zowel van de overheid naar burgers, als van bedrijven naar het college en de gemeenteraad.
Gemeentelijk beleid: Principes voor de Digitale Samenleving
In december 2022 heeft de VNG op hun algemene ledenvergadering een nieuwe set Principes voor de Digitale Samenleving omarmd. Deze Principes gaan over de inzet van digitale technologie in brede zin, dus niet alleen over de inzet van AI en algoritmen. Echter, enkele Subprincipes gaan wel specifiek over kunstmatige intelligentie. Zo hebben gemeenten met Subprincipe 2.1 gezegd dat ze niet met biometrische surveillancetechnieken werken, zoals gezichtsherkenningstechnologie, waarvoor AI wordt gebruikt. En met Subprincipe 4.2 hebben gemeenten gezegd algoritmen die ingezet worden in de openbaar toegankelijke ruimte in een algoritmeregister op te nemen.
Conclusie
‘AI is niet zomaar een technologie, maar een systeemtechnologie die de samenleving fundamenteel zal veranderen’, aldus de Wetenschappelijke Raad voor het Regeringsbeleid (WRR). De markt drijft hypes aan rondom AI en belooft gouden bergen, maar wetenschappers en adviesraden zoals de WRR waarschuwen om de beloftes en de inzet van AI kritisch te beschouwen.
Gemeenten en andere overheden kunnen deze technologie gebruiken om maatschappelijke opgaven aan te pakken, maar er liggen in het gebruik van AI ook nog uitdagingen en ethische vraagstukken op het gebied van transparantie, verantwoording, privacy en procedurele rechten. De WRR spreekt van een ‘kantelpunt’ in deze systeemtechnologie, waarbij overheid en samenleving voor 5 opgaven staan bij AI: demystificatie, contextualisering, engagement, regulering en positionering.
De afgelopen jaren kwam meer beleid om de ontwikkeling en inzet van AI te begeleiden en deze opgaven het hoofd te bieden. Op Europees niveau is de AI Act in ontwikkeling om deze technologie te reguleren, en worden er handreikingen ontwikkeld voor een ethische en maatschappelijke verantwoorde omgang met AI. Op nationaal niveau heeft BZK 3 actielijnen opgezet rondom het gebruik van algoritmen door overheden, uit te splitsen in: het algoritmeregister, een algoritmetoezichthouder en het implementatiekader voor de toepassing van algoritmen.
Ook gemeenten en de VNG zijn volop bezig om deze systeemtechnologie zowel in goede banen te begeleiden als te implementeren. De VNG roept namens gemeenten de rijksoverheid en EU op om bij de ontwikkeling wet- en regelgeving rond AI aandacht te hebben voor uitvoerbaarheid, onder andere door uitvoeringstoetsen te doen. Toepassingen van AI door gemeenten vinden niet alleen plaats om efficiënter en effectiever te werken, maar kunnen ook een rol spelen in het versterken van publieke waarden zoals privacy.