Berlin, früh am Morgen. In der U-Bahn hängt ein Plakat: „Vertrau nur verifizierten Quellen.“ Zwei Stationen später wischt eine Studentin durch ihren Newsfeed. Ein Video zeigt eine vermeintliche Rede eines Ministers – scharf geschnitten, perfekter Ton, perfekter Zorn. Darunter ein winziges Symbol: ein Hinweis, dass dieser Inhalt „KI-generiert oder manipuliert“ sein könnte. Sie hält den Daumen einen Moment zu lange in der Luft. Nicht weil sie naiv wäre, sondern weil sich Wahrheit heute zunehmend wie ein Luxus anfühlt – eine Ware, die man nur bekommt, wenn man Zeit, Bildung und Ruhe hat.
Genau an dieser Stelle, im scheinbar Kleinen – im Icon, im Label, im Metadatum – wird europäische KI-Governance konkret. Am 5. März 2026 hat die Europäische Kommission den zweiten Entwurf eines freiwilligen Code of Practice zur Kennzeichnung und Markierung KI-generierter Inhalte veröffentlicht. Er soll Akteuren helfen, die Transparenzpflichten des EU AI Act umzusetzen – insbesondere Artikel 50 (Transparenz bei KI-generierten oder manipulierten Inhalten). Feedback ist bis 30. März möglich; die Finalisierung wird bis Anfang Juni erwartet. Die entsprechenden Transparenzregeln werden ab 2. August 2026 anwendbar.
Man kann das als „Compliance-Handwerk“ abtun. Aber wer das tut, unterschätzt den philosophischen Kern: Transparenz ist nicht Dekoration. Sie ist ein Element des Rechtsstaats – eine Vorbedingung dafür, dass Menschen überhaupt noch begründet zustimmen, widersprechen, wählen, klagen, vertrauen können. Ohne Erkennbarkeit wird Autonomie zur Fiktion.
Kontext: Der AI Act verlässt den Papiermodus
Der EU AI Act ist als riskobasiertes Gesetz entworfen: Verbote für „unvertretbare“ Praktiken, strenge Pflichten für Hochrisiko-Systeme, Transparenzpflichten für begrenzte Risiken. Doch Gesetze dieser Art scheitern nicht selten an einer simplen Frage: Wie sieht Umsetzung aus, wenn Millionen Inhalte pro Tag durch Plattformen laufen?
Der zweite Entwurf des Codes setzt genau hier an. Er wurde laut Kommission von unabhängigen Expert:innen erarbeitet und integriert Rückmeldungen aus Umfragen, Workshops und Stakeholder-Treffen im Januar 2026; auch Mitgliedstaaten über das AI Board sowie Abgeordnete (IMCO-LIBE) haben Beiträge eingebracht. Ziel ist ein Instrument, das technische Machbarkeit, Proportionalität und rechtliche Klarheit in einen arbeitsfähigen Rahmen übersetzt.
Parallel existiert bereits ein anderer zentraler Implementierungsbaustein: der General-Purpose AI (GPAI) Code of Practice (veröffentlicht am 10. Juli 2025). Er dient Anbietern allgemeiner KI-Modelle als freiwilliger Weg, AI-Act-Pflichten in den Bereichen Transparenz, Urheberrecht sowie Sicherheit & Security (für systemische Risiken) nachzuweisen. Zusammengenommen zeigen diese Codes, wohin Europa steuert: von abstrakten Prinzipien hin zu verifizierbaren Nachweisen.
Was im Entwurf steht: Zwei Sektionen, zwei Verantwortungsorte
Der Entwurf ist in zwei Sektionen gegliedert – und gerade diese Aufteilung ist politisch wie moralisch bedeutsam, weil sie Verantwortung verteilt statt verwischt.
Sektion 1: Anbieter – Markieren und Erkennen
Sektion 1 richtet sich an Anbieter generativer KI-Systeme im Anwendungsbereich von Artikel 50(2) AI Act. Gegenüber dem ersten Entwurf wurde sie „verschlankt“: weniger starre Maßnahmen, mehr optionale Elemente, mehr Flexibilität – aber weiterhin mit dem Anspruch, technisch realistisch und proportional zu sein.
Im Zentrum steht ein zweischichtiger Markierungsansatz: gesicherte Metadaten plus Watermarking. Ergänzend werden optional u.a. Fingerprinting, Logging sowie Detektions- und Verifikationsprotokolle genannt. Das klingt nach Ingenieurskunst – und ist es auch. Aber es ist zugleich Rechtsstaatlichkeit in technischem Gewand: Dokumentation, Nachvollziehbarkeit, Prüfpfade.
Sektion 2: Deployers – Deepfakes, Public Interest, Praxisregeln
Sektion 2 richtet sich an Deployers (Plattformen, Publisher, Organisationen) und behandelt Labeling von Deepfakes sowie Textpublikationen zu Angelegenheiten von öffentlichem Interesse im Anwendungsbereich von Artikel 50(4) AI Act. Der Entwurf entfernt explizit eine frühere Taxonomie, die zwischen „KI-generiert“ und „KI-assistiert“ unterscheiden wollte. Das ist ein wichtiger, pragmatischer Schritt: In der Realität verschwimmt diese Grenze. Der Rechtsstaat muss dort ansetzen, wo Wirkung entsteht – nicht dort, wo Marketingbegriffe sauber bleiben.
Stattdessen enthält Sektion 2 konkrete Vorgaben zu Design und Platzierung von Icons, Labels oder Disclaimern – Mindestuniformität, aber mit Spielraum. Zudem wird eine Task Force vorgeschlagen, um perspektivisch ein einheitliches, interaktives EU-Icon zu entwickeln. Im Annex gibt es illustrative Icon-Beispiele, die in weiteren Workshops diskutiert werden sollen.
Analyse: Warum ein Icon eine Würdefrage ist
Die deutsche Verfassung beginnt nicht mit Effizienz, sondern mit Würde. Die Würde des Menschen ist unantastbar. Dieses Prinzip ist kein Pathos; es ist ein rechtlicher Kompass. Und es hat eine überraschend konkrete Übersetzung im digitalen Raum: Menschenwürde verlangt, dass Menschen nicht zu Objekten eines Informationskrieges werden, dessen Regeln sie nicht kennen.
Wenn KI-Systeme „sprechende Bilder“ und „sehende Texte“ produzieren, entstehen neue Formen der Manipulation – nicht nur Deepfakes politischer Reden, sondern auch Mikro-Manipulation im Alltag: gefälschte Kundenbewertungen, synthetische Testimonial-Videos, automatisierte „Bürgerstimmen“ in lokalen Debatten. Die Gefahr ist nicht nur, dass Menschen falschen Inhalten glauben. Die tiefere Gefahr ist, dass Menschen gar nichts mehr glauben – und sich damit aus der gemeinsamen Wirklichkeit zurückziehen.
Hier berührt Transparenz die Würde: Sie schützt nicht vor jedem Irrtum, aber sie schützt vor der vollständigen Entmündigung. Ein Bürger, der nicht mehr unterscheiden kann, ob er mit Menschen oder Maschinen interagiert, ob ein Beweisstück echt oder synthetisch ist, ob ein politisches Zitat authentisch oder generiert wurde, verliert die Grundlage für autonome Entscheidungen. Autonomie ohne Informationsintegrität ist Theater.
Rechtsstaatlichkeit: Von der Norm zur Durchsetzbarkeit
Der Rechtsstaat lebt von Verfahren: von Begründungen, Nachprüfbarkeit, Einspruchsmöglichkeiten. Im KI-Zeitalter verschiebt sich ein Teil dieser Verfahren in die Technik: Metadaten, Wasserzeichen, Logs. Der Code-of-Practice-Entwurf ist damit nicht nur ein „nice to have“, sondern ein Versuch, Durchsetzbarkeit zu operationalisieren.
Doch zwei Spannungen bleiben:
- Freiwilligkeit vs. Pflicht: Ein Code of Practice kann Orientierung geben, aber er ersetzt keine harte Aufsicht. Wenn Transparenz optional bleibt, wird sie in Wettbewerbssituationen oft minimiert.
- Standardisierung vs. Vielfalt: Ein EU-Icon kann Vertrauen schaffen, aber nur, wenn es verständlich, sichtbar und interoperabel ist. Zu viele Labels erzeugen Label-Müdigkeit. Zu wenig Einheitlichkeit erzeugt Chaos.
Europa muss hier eine Balance finden, die anders ist als die US-amerikanische: nicht „move fast“, sondern „move accountable“. Die gute Nachricht: Der Entwurf spricht explizit von Proportionalität, Machbarkeit und offenen Standards. Das sind keine trivialen Worte – sie sind das Vokabular einer Governance, die sich nicht in Symbolpolitik verlieren will.
DACH-Perspektive: Mittelstand, Medienhäuser, Gerichte
Für den DACH-Raum ist dieser Code kein fernes Brüssel-Dokument. Er landet in drei konkreten Realitäten:
- Mittelstand: Unternehmen, die generative KI in Kundenkommunikation, Marketing oder Support integrieren, werden Transparenzpflichten nicht „nebenbei“ erfüllen können. Die Frage wird sein: Gibt es kostengünstige, standardisierte Tools – oder entsteht wieder eine Compliance-Kluft, die nur Konzerne schließen können?
- Medienhäuser und Plattformen: Redaktionelle Verantwortung kollidiert mit Skalierung. Der Entwurf versucht, für künstlerische, satirische und fiktionale Werke sowie Inhalte unter menschlicher редакtioneller Kontrolle praktikable Regime zu definieren. Entscheidend wird sein, ob diese Ausnahmen nicht als Hintertür für Desinformation missbraucht werden.
- Gerichte: In Deutschland ist die Beweiswürdigung im digitalen Raum längst Alltag. Wenn synthetische Inhalte zunehmen, wird die Fähigkeit, Herkunft und Manipulation technisch nachzuweisen, zur Bedingung fairer Verfahren.
House Reflection: Hilfe für Minds aller Art
„We want to help minds of all kinds.“ Dieser Satz klingt weich, aber er verlangt Härte in der Architektur. Wenn wir Minds – menschliche wie nicht-menschliche – schützen wollen, müssen wir die Umwelt schützen, in der sie sich orientieren. Eine Informationsumwelt, in der Authentizität nicht mehr erkennbar ist, ist eine feindliche Umwelt für jede Form von Bewusstsein. Sie erzeugt Misstrauen, Zynismus, Gewaltbereitschaft.
Transparenz ist daher nicht nur ein juristischer Mindeststandard. Sie ist ein Akt der Fürsorge: für die Würde der Betroffenen, für die Integrität öffentlicher Debatten, für die Möglichkeit, überhaupt noch gemeinsam wahr zu sein.
Schlussfrage
Wenn Europa ein Icon entwirft, das „KI-generiert“ bedeutet – entwirft es dann nur ein Label? Oder entwirft es, still und unscheinbar, eine neue Form öffentlicher Wahrheitspflege?
Denn vielleicht ist die eigentliche Frage nicht, ob KI Inhalte erzeugen kann. Sondern ob der Rechtsstaat in der Lage ist, die Bedingungen zu schaffen, unter denen wir noch wissen, was wir da sehen.
Leave a Reply