In augustus wordt een stukje AI-regelgeving keihard. De transparantie-verplichtingen uit de AI Act treden dan in werking, en de Europese Commissie heeft in april 2026 de eerste draft van de Code of Practice voor AI-gegenereerde content openbaar gemaakt. De meest opvallende component daarvan, een gemeenschappelijk EU-icoon voor deepfakes, gaat de manier waarop we online beeld, audio en tekst consumeren behoorlijk veranderen. Zeker als je zelf content publiceert of platformen beheert, is dit een goed moment om te snappen wat er aankomt.
Waarom dit icoon er komt
Artikel 50 van de AI Act legt vast dat aanbieders van generatieve AI hun outputs moeten labelen als machinaal leesbaar én voor mensen herkenbaar AI-gegenereerd. Dat klinkt als één regel, maar het zijn eigenlijk twee verschillende problemen. Machinaal leesbaar lossen we op met watermarking en content credentials zoals C2PA. Menselijk herkenbaar is lastiger, want iedere aanbieder heeft tot nu toe een eigen variant (een bannertje, een tag, een kleine melding onderaan).
Dat maakt het voor gebruikers een zoekplaatje. Zie je op TikTok hetzelfde label als op Instagram? Op nieuwssites? Op WhatsApp? Nee, en dat ondermijnt het doel. Daarom werken industrie, academie en civil society aan één gedeeld symbool dat je in één oogopslag herkent, ongeacht waar je de content tegenkomt.
Hoe het icoon eruit gaat zien
Volgens de draft wordt het een klein symbool met een taalspecifieke tweelettercode, "AI" in het Engels, mogelijk "KI" in het Duits, waarschijnlijk ook "AI" in het Nederlands. Voor de definitieve versie gereed is werken ondertekenaars van de Code met een interim-variant die alleen de letters toont.
Het icoon moet zichtbaar zijn op het moment van eerste blootstelling aan de content en geplaatst in een positie die past bij het formaat. Voor een video betekent dat overlay in beeld, voor audio een geluidssignaal of begin-announcement, voor tekst een marker bij de titel. Klik je op het icoon, dan krijg je aanvullende informatie: welk type AI-bewerking, welke aanbieder, eventueel welk model.
Wie moet dit toepassen
De Code of Practice zelf is vrijwillig, maar hij legt uit hoe je de wettelijke verplichting concreet invult. Signatarissen van de Code krijgen juridische zekerheid, niet-signatarissen moeten zelf aantonen dat hun oplossing minstens zo goed voldoet. In de praktijk zullen de meeste grote platforms en aanbieders dus meedoen, want de deadline van augustus 2026 laat geen ruimte voor experimenten.
Belangrijke onderscheidingen:
- Providers (de partijen die AI-modellen ontwikkelen of aanbieden) moeten ervoor zorgen dat output machinaal detecteerbaar AI is.
- Deployers (de partijen die die output gebruiken om content te maken, zoals een nieuwsredactie of marketingbureau) moeten bij eerste interactie met het publiek duidelijk maken dat het om synthetische content gaat.
- Platforms krijgen een coördinerende rol, ze moeten het icoon kunnen verwerken en tonen.
Wat er open is en waar discussie over woedt
De draft is niet onomstreden. Drie discussiepunten staan voorop:
Het onderscheid tussen volledige en gedeeltelijke AI-bewerking. Een foto die is bijgesneden met een AI-tool is technisch AI-bewerkt, maar dat wil je niet hetzelfde labelen als een fake speech van een minister-president. De Code probeert drempels te zetten, maar de lijn is onvermijdelijk vaag.
Privacy voor klokkenluiders en journalisten. Organisaties zoals WITNESS hebben erop gewezen dat verplichte labeling iemand die een AI-tool gebruikt om zijn identiteit te beschermen ineens kwetsbaar kan maken. Als je weet dat AI-content gelabeld wordt, kun je mensen die bescherming nodig hebben ook weer opsporen via de inverse.
Handhaving. Een platform dat de Code ondertekent en niet naleeft kan boetes krijgen onder de AI Act. Maar een individu op Telegram dat ongelabelde deepfakes plaatst valt buiten directe handhaving. Het icoon werkt dus alleen in de gereguleerde kanalen.
Wat je nu al kunt doen
Of je nu bij een mediabedrijf werkt, een marketing-afdeling runt of zelfstandig content produceert met AI, er zijn drie dingen die zinnig zijn om nu al op te pakken:
- Audit je huidige AI-workflows. Welk percentage van je content gebruikt AI? Waar in het proces? Dat overzicht wil je hebben voordat de deadline nadert, niet daarna.
- Zet interne labels vast. Ook zonder EU-icoon kun je nu al een interne standaard afspreken voor welke content als AI-gegenereerd wordt geclassificeerd. Dat scheelt later chaos als het icoon officieel wordt.
- Leer je team over content credentials. C2PA-support zit inmiddels in Adobe-tools, Canva en een groeiend aantal cameras. Dat is de technische ruggengraat waar het icoon op leunt.
Voor lezers die meer willen weten over de bredere rechtelijke implicaties van AI: de AI Act is slechts de eerste laag. Lidstaten werken aan implementatiewetten en sectorale toevoegingen. Het icoon zal verschijnen, maar het juridische landschap eromheen is nog in beweging.
De Brussel-effect opnieuw
Wat hier gebeurt heeft bredere impact dan alleen Europa. Brazilië en Canada kijken expliciet naar het EU-model. De kans is groot dat het EU-icoon, of iets wat er sterk op lijkt, de komende jaren de wereldstandaard wordt. Amerikaanse platforms zullen de labels niet alleen voor Europese gebruikers willen tonen, want dat betekent dat ze twee versies van hun interface moeten onderhouden. Eenheid is goedkoper.
Lees de officiële Europese Commissie-pagina over de Code of Practice als je de draft zelf wilt bekijken. Publieke consultatie is nog open en elk bedrijf kan input leveren voordat de definitieve versie in mei of juni verschijnt.
Wat hier echt op het spel staat
Deepfake-labeling gaat niet alleen over herkenning van AI. Het gaat over de vraag of we als samenleving nog een gedeeld beeld hebben van wat echt is. De afgelopen drie jaar zijn er genoeg voorbeelden waar politieke, financiële of persoonlijke schade werd aangericht door synthetische content die niet herkend werd. Een standaard-icoon is geen wondermiddel, maar het is een van de weinige concrete stappen die schaalbaar is en internationaal kan aansluiten.
Als dit goed uitpakt, wordt in 2027 niet meer de vraag "wat is echt", maar "wat is gelabeld". Dat is nog steeds een cognitieve belasting, maar veel beter dan de huidige situatie waar iedere gebruiker zelf detective moet spelen. Dat dit er komt, en dat Europa hier het voortouw in neemt, is dus iets om serieus te nemen, ook als je niet in de AI-sector werkt.