Die Human‑Review‑Lücke im AI Act – Transparenzpflichten wertlos?

Am 2. August 2026 werden die Transparenzpflichten des EU AI Act erstmals vollständig anwendbar — ein Datum, das in zahllosen Legal-Abteilungen und Entwicklerbüros markiert ist. KI-generierte Inhalte müssen gekennzeichnet werden, maschinenlesbare Markierungen werden Pflicht, wer mit einer KI interagiert, soll es wissen. Die EU hat das erste umfassende KI-Gesetz der Welt geschaffen. 523 Abgeordnete stimmten dafür.

Doch in diesem 459-seitigen Regelwerk steht in Artikel 50, Absatz 4 ein Halbsatz, der die gesamte Text-Kennzeichnungspflicht in der Praxis aushöhlen könnte.


Die Fassade der Transparenz

Was Artikel 50 verlangt, klingt zunächst klar: Wer ein KI-System betreibt, das Texte zu Angelegenheiten des öffentlichen Interesses generiert — Nachrichten, politische Analysen, behördliche Mitteilungen — muss diese Inhalte als KI-generiert kennzeichnen. Dasselbe gilt für Deepfakes in Audio und Video.

Die Strafen sind empfindlich. Artikel 99 sieht bei Verstößen gegen die Transparenzpflichten bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes vor — je nachdem, was höher ist. Ko-Berichterstatter Brando Benifei (S&D) sprach bei der Verabschiedung von einem Gesetz, das „Risiken reduziert, Diskriminierung bekämpft und Transparenz bringt“.

Doch direkt im selben Absatz steht eine Ausnahme.


Mein Blogbeitrag zum neuen Service

Die Lücke

Artikel 50 Absatz 4 des AI Act schreibt vor, dass KI-generierte Texte zu öffentlichen Angelegenheiten gekennzeichnet werden müssen — es sei denn, sie haben „einen Prozess der menschlichen Überprüfung oder redaktionellen Kontrolle durchlaufen, und eine natürliche oder juristische Person trägt die redaktionelle Verantwortung für die Veröffentlichung“.

die human review lucke ai act transparenzpflicht 2

Das Problem: Der AI Act definiert nirgends, was „menschliche Überprüfung“ konkret bedeutet. Reicht ein flüchtiges Korrekturlesen durch eine Volontärin? Genügt das Abnicken eines Chefredakteurs? Muss jeder Satz inhaltlich geprüft werden? Müssen solche Prozesse dokumentiert und auf Anfrage nachgewiesen werden?

Der Gesetzestext schweigt. Die Draft Guidelines der EU-Kommission, die seit dem 8. Mai 2026 zur Konsultation stehen, präzisieren die Ausnahme ebenfalls nicht — sie erläutern den Anwendungsbereich, aber keine Mindestanforderungen für Human Review. Der finale Code of Practice wird erst im Juni 2026 erwartet, zwei Monate vor Inkrafttreten der Pflichten.

Medienverbände und Nachrichtenagenturen haben im Trilog auf diese Ausnahme gedrängt. Das ist kein Geheimnis — und es erklärt, warum die Norm so offen formuliert ist. Die absehbare Konsequenz: Nachrichtenportale und politische Plattformen können KI-generierte Texte ungekennzeichnet veröffentlichen, solange behauptet wird, eine „menschliche Überprüfung“ habe stattgefunden. Wie viel Prüfung das sein muss, entscheidet bislang niemand verbindlich.

die human review lucke ai act transparenzpflicht 3

Die Grenzen maschinenlesbarer Markierungen

Parallel zur rechtlichen Unschärfe gibt es einen technischen Grundsatzstreit: Sind maschinenlesbare Wasserzeichen für KI-Text überhaupt zuverlässig realisierbar?

Artikel 50 Absatz 2 verlangt, dass KI-Ausgaben „in einem maschinenlesbaren Format als künstlich erzeugt oder manipuliert erkennbar“ markiert werden — „soweit dies technisch machbar ist“. Diese Einschränkung ist kein redaktioneller Zufall. Sie spiegelt einen echten Graben zwischen regulatorischem Anspruch und technischem Stand.

Wissenschaftliche Untersuchungen zeigen, dass kein derzeit verfügbares LLM-Wasserzeichenverfahren alle vier gesetzlichen Anforderungen gleichzeitig erfüllt: Robustheit, Erkennbarkeit, Effektivität und Interoperabilität. Wasserzeichen können durch einfaches Paraphrasieren, Übersetzen oder Umformatieren entfernt werden. Bei Open-Source-Modellen können Betreiber die Markierungsfunktion schlicht deaktivieren.

die human review lucke ai act transparenzpflicht 4

Die Kommission setzt auf einen Mehrsäulenansatz: Metadaten-Einbettung (z. B. digitale Signaturen), unsichtbare Wasserzeichen direkt im Content sowie Fingerprinting und Logging als Rückfallebene. Der erste Draft des Code of Practice vom Dezember 2025 konkretisiert diesen Ansatz, ohne jedoch offene-Quellen-Entwickler oder kleine Anbieter spezifisch zu adressieren. Die „technische Machbarkeitsklausel“ im Gesetzestext kann damit zur Dauerausrede werden.


Status quo: Regulierung vs. Realität

BereichGesetzliche VorgabeStand Mai 2026
Inkrafttreten Art. 502. August 2026Code of Practice erst Juni 2026 erwartet
Maximalstrafe Transparenz15 Mio. € oder 3% UmsatzNationale Sanktionsrahmen in mehreren EU-Staaten nicht fristgerecht umgesetzt
Human-Review-AusnahmeIm Gesetz enthaltenKein definierter Mindeststandard, beliebig interpretierbar
Text-Wasserzeichen„Technisch machbar“Wissenschaftlich umstritten; kein Verfahren erfüllt alle vier Kriterien
High-Risk-KI (Annex III)Ursprünglich August 2026Auf 2. Dezember 2027 verschoben (Digital Omnibus, 7. Mai 2026)
KMU-BetroffenheitErleichterungen versprochenKeine operationalisierten Maßnahmen im CoP-Entwurf
Nationale AufsichtsbehördenDesignierung bis 2. August 2025Mehrere Mitgliedstaaten noch nicht vollständig compliant

Drei Perspektiven

Die EU-Kommission
gibt sich zuversichtlich. Die am 8. Mai 2026 gestartete Konsultation der Draft Guidelines soll den Anwendungsbereich konkretisieren; der Code of Practice werde „leicht umsetzbare Lösungen“ bieten. Bis zum 3. Juni 2026 können Unternehmen, Behörden und Zivilgesellschaft Stellung nehmen.

Entwickler und Unternehmen
stehen vor echter Planungsunsicherheit. Ein KI-Start-up, das einen Chatbot für Behördenseiten betreibt, weiß heute nicht: Fällt jede Ausgabe unter Art. 50 Abs. 1? Welche technische Markierung genügt? Reicht ein Hinweis im Footer? Ohne finalen Code of Practice sind das offene Fragen mit Haftungsrisiko.

Die Zivilgesellschaft
warnt vor struktureller Transparenz-Müdigkeit. Wie Cookie-Banner zeigen, können Kennzeichnungspflichten zur Formalität degenerieren, wenn sie weder einheitlich definiert noch aktiv durchgesetzt werden. Ob KI-Labels beim Nutzer ankommen, hängt maßgeblich davon ab, ob die Kennzeichnung konsistent, sichtbar und glaubwürdig ist — nicht ob sie irgendwo im Metadatenstrom existiert.

die human review lucke ai act transparenzpflicht 5

Fragen, die beantwortet werden sollten

Was genau meint „menschliche Überprüfung“ im AI Act?

Der AI Act selbst definiert den Begriff nicht; es geht formal um einen redaktionellen Prüfprozess, den eine natürliche oder juristische Person verantwortet, wobei Umfang und Dokumentationspflichten erst im Code of Practice konkretisiert werden müssen.

Reicht ein knappes Abnicken durch eine Redaktion, um die Ausnahme zu nutzen?

Nicht zuverlässig — ohne dokumentierten Prüfprozess und Nachweis der redaktionellen Verantwortung ist die Ausnahme rechtlich angreifbar; der finale Code of Practice dürfte Mindestanforderungen (Stichproben, Kriterien, Verantwortliche) näher bestimmen.aesia.

Können Plattformen oder Open‑Source‑Projekte die Kennzeichnungspflicht einfach umgehen?

Ja, praktisch: Offene Modelle können Markierungsfunktionen deaktivieren und Plattformen können behaupten, Content sei „redaktionell geprüft“; technische Maßnahmen (Wasserzeichen, Metadaten) sind nicht immer robust genug, daher bleibt Umgehung möglich.

Was sollten Publisher jetzt operativ tun, um rechtssicherer zu werden?

Dokumentiere redaktionelle Workflows (wer prüft was, mit welcher Methodik), führe Stichproben‑Audits, logge Änderungs‑/Review‑Metadaten und implementiere sichtbare Kennzeichnungen für Nutzer; nutze den Code of Practice als Leitfaden sobald er veröffentlicht ist.digital-strategy.

Wie groß ist das Vollzugsrisiko (Bußgelder) solange nationale Behörden noch unvollständig sind?

Das Bußgeldrisiko besteht formal (bis zu 15 Mio. € / 3% Umsatz), praktisch kann die Durchsetzung in Staaten ohne designierte Aufsichtsbehörde verzögert sein — die Rechtslage ist also existent, die Vollstreckung in Teilen noch eingeschränkt.

Das Vollzugsdefizit als systemisches Problem

Die Transparenzpflichten des AI Act haben ein Durchsetzungsproblem, das über die Human-Review-Lücke hinausgeht: Mehrere EU-Mitgliedstaaten haben die Designation ihrer nationalen Marktüberwachungsbehörden nicht fristgerecht zum 2. August 2025 abgeschlossen. Ohne funktionsfähige nationale Behörden können ab August 2026 keine Bußgelder verhängt werden — die Strafandrohung läuft im Leeren.

Hinzu kommt: Mit dem Digital Omnibus, auf den sich Parlament und Rat am 7. Mai 2026 vorläufig geeinigt haben, wurden die High-Risk-Fristen unter Annex III auf den 2. Dezember 2027 und unter Annex I (physische Produkte) sogar auf den 2. August 2028 verschoben. Der politische Reflex, Fristen zu verlängern, wenn Umsetzungsdruck entsteht, ist damit im AI Act bereits etabliertes Muster.

Fazit

Der AI Act ist ein historischer Schritt, und die Entscheidung der EU, KI-Transparenz gesetzlich zu verankern, ist prinzipiell richtig. Aber die Human-Review-Lücke, die technische Unschärfe bei Wasserzeichen, die verspäteten nationalen Sanktionsrahmen und die Kultur der Fristverlängerungen zeigen: Zwischen regulatorischem Anspruch und praktischer Wirksamkeit klafft eine Lücke, die kein Code of Practice in zwei Monaten schließen kann.

Die Frage ist nicht, ob der AI Act die Transparenz von KI-Inhalten erhöht. Die Frage ist, ob die Ausnahmen, die Unbestimmtheit und der Vollzugsverzug nicht mehr Raum für strategisches Nicht-Kennzeichnen lassen als der Gesetzgeber zugestehen will.

Noch drei Monate bis August 2026.

die human review lucke ai act transparenzpflicht 6

Quellen

Rechtstexte & offizielle Dokumente

  1. EU AI Act, Artikel 50 — Transparenzpflichten (Volltext, englisch)
    Maßgeblicher Primärtext mit Human-Review-Ausnahme in Abs. 4.
    https://artificialintelligenceact.eu/article/50/
  2. EU AI Act, Artikel 99 — Sanktionen
    Strafrahmen für Verstöße gegen die Transparenzpflichten (bis 15 Mio. € / 3% Umsatz).
    https://artificialintelligenceact.eu/article/99/
  3. EU-Kommission: Konsultation Draft Guidelines Transparenzpflichten (ab 8. Mai 2026)
    Erste Auslegungsleitlinien des AI Office zu Art. 50; Konsultation offen bis 3. Juni 2026.
    https://digital-strategy.ec.europa.eu/en/consultations/consultation-draft-guidelines-transparency-obligations-under-ai-act
  4. EU-Kommission: Launch Code of Practice on Marking and Labelling (5. November 2025)
    Start des CoP-Prozesses zur technischen Umsetzung von Wasserzeichen und Labeling.
    https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content
  5. Digital Omnibus on AI — Provisorische Einigung (7. Mai 2026)
    Verschiebung der High-Risk-Fristen (Annex III → Dez. 2027, Annex I → Aug. 2028), neues Verbot KI-generierter Intimaufnahmen.
    https://www.linkedin.com/posts/mattbertramlive_the-eu-ai-acts-biggest-deadline-just-moved-activity-7458993505235804160-CmDv

Technische Analysen

  1. Hal.science (2025): Interpreting the AI Act in Light of Technology — LLM Watermarking
    Vergleich aktueller LLM-Wasserzeichen-Methoden gegen die vier EU-Kriterien (Robustheit, Erkennbarkeit, Effektivität, Interoperabilität). Befund: Kein Verfahren erfüllt alle vier Anforderungen gleichzeitig.
    https://hal.science/hal-05385333v1/file/2025_11_05_arXiv_Article_Watermarking_in_Education.pdf
  2. Cooley (Dez. 2025): EU AI Act — First Draft Code of Practice on Transparency and Watermarking
    Analyse des ersten CoP-Entwurfs: Metadaten-Einbettung, Wasserzeichen, Fingerprinting/Logging als Drei-Säulen-Ansatz; kein spezifischer Standard (z. B. C2PA) verpflichtend.
    https://www.cooley.com/news/insight/2025/2025-12-18-eu-ai-act-first-draft-code-of-practice-on-transparency-and-watermarking-released
  3. AI Act Blog NL (Dez. 2025): Article 50 AI Act — Labeling & Watermarking
    Praktische Aufschlüsselung: Metadaten, unsichtbare Wasserzeichen, Fingerprinting, Detector-API-Pflicht.
    https://www.aiactblog.nl/en/posts/article-50-practical-labeling-detection

Vollzug & nationale Umsetzung

  1. NAAIA.ai (2025): AI Act — National Governance Frameworks
    Überblick zu den Designierungspflichten nationaler Behörden; Stand: Mehrere Mitgliedstaaten zum Stichtag August 2025 nicht compliant.
    https://naaia.ai/ai-act-conformity-governance-europe/
  2. EU AI Act — National Implementation Plans (Übersicht)
    Laufend aktualisierte Übersicht der Kommission zu nationalen Umsetzungsplänen der Mitgliedstaaten.
    https://artificialintelligenceact.eu/national-implementation-plans/
  3. FullStack Evolved (März 2026): EU Council Agrees to Delay AI Act High-Risk Rules by 16 Months
    Details zur Ratseinigung auf den Digital Omnibus: Begründung (fehlende Standards, US-Druck), neue Fristen.
    https://www.fullstackevolved.com/blog/eu-ai-act-delay-high-risk-rules-2026-03-20/
Das musst du sehen...
Tom Scharlock
Tom Scharlock

Vom Piercing-Shop zur digitalen Erzählkunst

Ich schreibe in Code, denke in Geschichten
aus Web, Apps, UX, IT, KI als
Autor zwischen Technik und Fiktion.

___
Tom Scharlock ist Buchautor & Autor bei TECHWELTEN auf PWA.ist.
Am liebsten schreibt er dystere Zukunftsvisionen, aber immer FAKTISCH korrekt. Seinen Sie gewarnt!
Amazon Autor Profil  Pls Like ♥  

Artikel: 232