Gemanipuleerd audio- of videomateriaal, ook wel 'deepfakes' genoemd, is bezig aan een opmars. Beeld en geluid dat met behulp van kunstmatige intelligentie is bewerkt, is niet of nauwelijks meer van echt te onderscheiden.

Zoals deze onechte video van premier Mark Rutte, waarin hij spreekt over het klimaat. 

Publieke opinie

Deepfakes bieden kansen voor onderwijs, media en entertainment, maar brengen ook stevige risico’s met zich mee. Ze kunnen worden ingezet voor fraude, pesten en misleiding, ook van de publieke opinie. Hoe weet je immers of een politicus in een video daadwerkelijk zijn mening geeft of dat het een namaakvideo van een tegenstander is, als je echt en nep niet meer van elkaar kunt onderscheiden? Met deepfakes is het makkelijk haatzaaien of aanzetten tot geweld. Momenteel worden deepfakes voor 95% gebruikt voor de ontwikkeling van pornografisch materiaal, maar naar schatting is over 5 jaar 90% van alle online content bewerkt. Goed dus dat hier aandacht voor is vanuit wetenschappelijke hoek.

Tilburg University: juridische uitdagingen

Tilburg University publiceerde in november 2021 een onderzoek naar de wet- en regelgeving: Deepfakes: de juridische uitdagingen van een synthetische samenleving (pdf). De belangrijkste conclusie is dat er voldoende wet- en regelgeving is om het negatieve gebruik van deepfakes tegen te gaan. Waar het aan ontbreekt zijn toezicht en handhaving. Het onderzoek noemt 12 ‘reguleringsopties’, afkomstig uit het materieel recht, het procesrecht en vanuit handhaving en toezicht. Met deze opties kan het misbruik van deepfakes worden bestreden, maar niet voorkomen.

Rathenau Instituut: Tackling deepfakes in European policy

In samenwerking met Europese zusterinstellingen publiceerde het Nederlandse Rathenau Instituut het rapport ‘Tackling deepfakes in European policy’. Zij concluderen dat de opkomst van deepfakes niet meer te stoppen is, maar dat Europese overheden zich wel kunnen wapenen tegen gemanipuleerd audio- en videomateriaal.

Maatschappelijke impact

Het rapport beargumenteert dat Europese overheden zich niet blind moeten staren op regulering van deepfakes vanuit een AI-perspectief. Daarvoor geven de onderzoekers drie redenen. Ten eerste kunnen andere technologieën, zoals 3D-animatie, gebruikt worden om materiaal te maken dat vergelijkbaar is met deepfakes. Ten tweede is de potentiële schade van deepfakes slechts ten dele een resultaat van de technologie. Ook zaken als distributie en circulatie spelen immers mee in hun maatschappelijke impact. Ten derde is het moeilijk om deepfakes in juridische termen te vatten, omdat de negatieve effecten sterk van context afhankelijk zijn.

5 dimensies

Kortom, om de risico’s van deepfakes te beperken, moeten beleidsmakers zich richten op beleidsopties die rekening houden met de bredere maatschappelijke context en die verder kijken dan regulering. Naast de technologische dimensie identificeert dit rapport 4 andere dimensies waarin beleidsmakers kunnen ingrijpen om de negatieve impact van deepfakes te voorkomen of beperken. Namelijk creatie, circulatie, doelwit en publiek.

Technologisch burgerschap

Voor beleidsmakers liggen er kansen in enkele aanstaande EU-wetten. Voor de technologie- en creatiedimensies zijn dat bijvoorbeeld de aanstaande AI-verordening Voor de circulatiedimensie is dat met name de Digital Services Act. Daarnaast liggen er beleidsopties in het herzien van de Algemene Verordening Gegevensbescherming (AVG), om deze meer toe te spitsen op de bescherming van individuen en doelwitten, Bijvoorbeeld via de toevoeging van stem- en gezichtsdata als persoonsgegevens. Tot slot is het vanuit de publiekdimensie van belang te investeren in mediawijsheid en technologisch burgerschap, zodat inwoners meer kennis en vaardigheden hebben in de omgang met digitale media.