Member Content

Deepfake und Kennzeichnungspflicht - Wo kommt das Label hin, und was steht drauf?

Zur Event Anmeldung
Download PDF

Warum du das lesen solltest

Der EU AI Act ist da, die Kennzeichnungspflichten kommen im August 2026 – aber wie setzt man das konkret um? Wenn du in Marketing, E-Commerce, Packaging-Design oder Content-Produktion arbeitest, stehst du vor praktischen Fragen: Wo platziere ich das Label auf einer Produktverpackung? Reicht „Serviervorschlag" als Kennzeichnung? Was mache ich bei Print-Materialien, wo es kein „Hover" oder „Click" gibt? Und was ist eigentlich verständlicher für Nutzer: „AI-generated" oder „Simulated"?

Der erste Draft des Code of Practice der EU zur Kennzeichnung gibt Antworten auf das Wie - aber er zeigt auch, wo die größten Umsetzungsprobleme liegen. Dieser Artikel hilft dir, die Anforderungen zu verstehen und pragmatisch zu handeln - bevor 2026 kommt. Teil eins meiner vierteiligen Serie zum Thema „Deepfakes, Kennzeichnungspflicht und KI generierte Bilder“.

1. Was der Draft konkretisiert: Icon, „first exposure", Platzierung

Der Code of Practice Draft (veröffentlicht Dezember 2024) konkretisiert erstmals, wie die Kennzeichnungspflichten aus Art. 50 des EU AI Act in der Praxis aussehen sollen. Die wichtigsten Eckpunkte:

„Clear and distinguishable" bei „first exposure"

Die Kennzeichnung muss klar erkennbar und spätestens beim ersten Kontakt mit dem Inhalt erfolgen.Das bedeutet:

  • Nicht versteckt in Metadaten oder Footer
  • Nicht erst nach Scrollen oder Klicken
  • Nicht in unlesbarer Schriftgröße

Interim-Icon: AI/KI/IA

Bis ein finales EU-weites Icon entwickelt ist, soll ein Interim-Icon mit den Buchstaben „AI", „KI" oder „IA" (je nach Sprache) verwendet werden. Das finale Icon soll später interaktiv werden – mit zusätzlichen Infos zur Art der KI-Nutzung (z. B. „fully AI-generated" vs. „AI-assisted").

Platzierung nach Medientyp

Der Draft unterscheidet nach Modalität :

  • Bilder:  Icon muss  fixiert, sichtbar, nicht versteckt  sein (z. B. Wasserzeichen oder Overlay)
  • Video:  Icon muss  persistent  angezeigt werden (wo technisch machbar)
  • Audio:Gesprochene Disclosure  bei erstem Kontakt (z. B. „Dieser Inhalt wurde mit KI generiert")
  • Text:  Kennzeichnung bei „matters of public interest" (News, Meinungsbildung)

Barrierefreiheit

Kennzeichnungen müssen zugänglich sein – z. B. durch Alt-Text, Audio-Hinweise oder ausreichenden Kontrast.

2. Warum Packaging der schwierigste Kanal ist

Hier wird es konkret – und kompliziert. Denn der Draft adressiert primär digitale Kanäle (Websites, Social Media, Video-Plattformen). Aber was ist mit Print und Packaging ?

Das Problem: Keine Interaktivität am Regal

Eine Produktverpackung hat:

  • Kein UI, kein Hover, kein Click
  • Keine Möglichkeit fĂĽr „maschinenlesbare" Markierungen, die fĂĽr Endkunden zugänglich sind
  • Begrenzte Fläche fĂĽr zusätzliche Labels

Ein Beispiel aus der Praxis:

Ein Kunde aus dem Packaging-Design fragte uns: „Wir nutzen KI, um Produktfotos mit stylischen Hintergründen zu erstellen – das Produkt selbst ist echt fotografiert, aber der Hintergrund ist KI-generiert. Müssen wir das auf der Verpackung kennzeichnen? Und wenn ja: wie?"

Mögliche Lösungen (pragmatisch, nicht final)

  1. QR-Code mit Disclosure-Info
  2. Textuelle Disclosure neben dem Bild
  3. Icon auf der Verpackung

Unsere Einschätzung:

Packaging ist eine Grauzone . Der Draft sagt explizit, dass Definitionen, Scope und Exceptions in separaten Commission Guidelines behandelt werden. Bis diese vorliegen, empfehlen wir:

  • Kontext-Klassifizierung  (siehe Artikel 1): Ist das Bild entscheidungsrelevant?
  • Soft Disclosure  als Minimum (z. B. „Produktabbildung ähnlich")
  • Dokumentation  der Entscheidung (warum wurde so gekennzeichnet?)

3. Wording-Frage: „AI" vs. „Deepfake" vs. „Simulated/Altered"

Der Draft schlägt ein „AI"-Icon vor – aber ist das die beste Wahl?

Problem 1: „AI" ist technologie-zentriert, nicht risiko-zentriert

„AI-generated" sagt dem Nutzer: „Hier wurde KI verwendet." Aber es sagt nicht , ob das ein Risiko ist. Ein harmloses Mood-Bild und ein gefährlicher Deepfake bekommen das gleiche Label – das führt zu Labeling-Fatigue .

Problem 2: „Deepfake" ist emotional aufgeladen

„Deepfake" klingt nach Manipulation und Gefahr. Für ein Ferienhaus-Foto, das von Sommer auf Winter umgestellt wurde, ist das Over-Labeling .

Alternative: „Simulated" oder „Altered"

Einige Experten schlagen vor, statt „AI-generated" Begriffe wie „Simulated" oder „Altered" zu verwenden – weil sie beschreiben, was passiert ist , nicht welche Technologie verwendet wurde.

Beispiel:

  • „AI-generated image" → Nutzer denkt: „Aha, KI. Und jetzt?"
  • „Simulated scene" → Nutzer denkt: „Aha, das ist nicht echt. Ist das relevant fĂĽr mich?"

Unsere Einschätzung:

Die Wording-Frage ist noch nicht geklärt . Der Draft schlägt „AI" vor, aber die finale Taxonomie steht aus. Du solltest jetzt schon intern testen , welche Formulierungen bei deiner Zielgruppe am besten verstanden werden.

4. Multimodalität: Video, Audio, Images – unterschiedliche Platzierungslogik

Der Draft unterscheidet klar nach Medientyp :

Bilder (statisch)

  • Icon muss  fixiert  und  sichtbar  sein (z. B. Wasserzeichen, Overlay)
  • Nicht versteckt in Metadaten
  • Beispiel: Ein KI-generiertes Produktfoto auf einer PDP (Product Detail Page) hat ein kleines „AI"-Icon in der Ecke

Video

  • Icon muss  persistent  angezeigt werden (wo technisch machbar)
  • Bei Deepfake-Videos:  kontinuierliche Anzeige  erforderlich
  • Beispiel: Ein KI-generiertes Werbevideo zeigt das Icon durchgehend in der unteren Ecke

Audio

  • Gesprochene Disclosure  bei erstem Kontakt
  • Beispiel: „Dieser Podcast-Ausschnitt wurde mit KI-Stimmen erstellt"

Text

  • Kennzeichnung nur bei  „matters of public interest"  (News, Meinungsbildung)
  • Ausnahme: Wenn der Text  vollständig redaktionell ĂĽberarbeitet  wurde, kann die Kennzeichnung entfallen

Praxisproblem:

Was ist mit Multimodal-Content (z. B. ein Social-Media-Post mit Bild + Text)? Muss beides gekennzeichnet werden? Der Draft lässt das offen.

5. Minimal-Pragmatik: So kannst du heute schon konsistent handeln

Auch wenn vieles noch unklar ist, kannst du jetzt schon anfangen:

Schritt 1: Kontext-Klassifizierung

Nutze die Matrix aus Artikel 1:

  • Kontext:  Illustration/Mood vs. Produktdarstellung vs. Beweis/Doku
  • Impact:  Harmlos vs. Entscheidungsrelevant

Schritt 2: Disclosure-Level festlegen

  • Keine prominente Disclosure:  Harmlose Illustration (z. B. Mood-Bild in Social Media)
  • Soft Disclosure:  Produktdarstellung (z. B. „Produktabbildung ähnlich")
  • Prominente Disclosure:  Entscheidungsrelevanter Content (z. B. „KI-generiert" + Icon)

Schritt 3: Kanalspezifische Umsetzung

  • Digital (PDP, Social Media):  Icon + Hover-Info
  • Print/Packaging:  Textuelle Disclosure + ggf. QR-Code
  • Video:  Persistent Icon
  • Audio:  Gesprochene Disclosure

Schritt 4: Dokumentation

Halte fest:

  • Was wurde KI-gestĂĽtzt gemacht?
  • Warum wurde diese Disclosure gewählt?
  • Wer hat freigegeben?

Mehr dazu in Artikel 3.

Call to Action

Der Draft ist da – aber viele Fragen bleiben offen.

Wenn du jetzt schon Prozesse und Entscheidungsbäume aufsetzt, bist du 2026 nicht nur compliant – du hast auch einen Wettbewerbsvorteil.

Unsere Empfehlung:

  1. Klassifiziere  deinen KI-Content nach Kontext und Impact
  2. Teste  intern, welche Wording-Varianten bei deiner Zielgruppe funktionieren
  3. Dokumentiere  deine Entscheidungen – das wird bei Audits wichtig

Wenn du Unterstützung brauchst: Wir beraten Unternehmen dabei, pragmatische Compliance-Prozesse aufzusetzen – ohne Bürokratie, mit klaren Leitplanken.

 

Bei diesem Artikel hatte ich digitale UnterstĂĽtzung: KI hat beim Research und beim Formulieren geholfen, die Endredaktion und inhaltliche Verantwortung liegen bei mir als Autor.

 

Melde dich an um diese Masterclass zu schauen

Login or Register to Join the Conversation

Create an AccountLog in
Be the first to leave a comment.
Someone is typing...
No Name
Set
Moderator
4 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
No Name
Set
Moderator
2 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
Load More Replies

New Reply

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Load More Comments
Loading
Kai Hermsen
Digital Governance Experte

Kai, Digital Governance Experte & Co-Founder von DECAID.secure, revolutioniert die sichere KI-Implementierung für Unternehmen. Sein Weg führte von Führungspositionen im Konzern bis zum erfolgreichen Unternehmertum, darunter die Leitung der Charter of Trust bei Siemens und die Förderung digitaler Transformation bei Identity Valley. Als einer der führenden Köpfe im Bereich Digital Trust entwickelt er mit der twinds foundation zukunftsweisende Vertrauenslösungen. Seine Expertise bringt er aktiv im World Economic Forum und Munich Security Network ein.

Mehr von diesem Autor:
🔴 High-End KI-Content: Strategie, Qualität & die neue Kennzeichnungspflicht (EU AI Act)
🔴 Langdock 101: Das sichere KI-Setup für Führungskräfte
"Absolut sicher" - Der deutsche BTX-Hack von 1984
Die 6 häufigsten Mythen rund um KI Governance – und warum sie dein Unternehmen gefährden