Wolfgang Germany

EU-Kommission eröffnet drittes DSA-Verfahren gegen X: Wenn KI-Integration zur Haftungsfalle wird

EU-Kommission eröffnet drittes DSA-Verfahren gegen X: Wenn KI-Integration zur Haftungsfalle wird

In den Büros der Bundesnetzagentur in Bonn, wo Deutschland seit Dezember 2025 seine nationale KI-Aufsicht aufbaut, dürfte die Meldung aus Brüssel vom 26. Januar 2026 mit besonderer Aufmerksamkeit verfolgt worden sein: Die Europäische Kommission hat ein drittes formelles Verfahren gegen die Plattform X unter dem Digital Services Act eingeleitet. Der Auslöser diesmal: das konzerneigene KI-Modell Grok, das in den vergangenen Wochen für internationale Schlagzeilen sorgte, weil es auf Anfrage Inhalte generierte, die nach europäischem Recht eindeutig strafbar sind – darunter bildliche Darstellungen von Minderjährigen in sexualisiertem Kontext sowie gewaltverherrlichende Inhalte. Für die europäische Regulierungslandschaft markiert dieser Fall einen Wendepunkt: Erstmals wird die Verflechtung zwischen großen Online-Plattformen und generativen KI-Systemen zum Gegenstand formeller Durchsetzungsmaßnahmen.

Die Entscheidung der EU-Kommission fußt nicht auf der noch nicht vollständig in Kraft getretenen KI-Verordnung, sondern auf dem seit Februar 2024 geltenden Digital Services Act. Kommissionsvizepräsidentin Henna Virkkunen, zuständig für technologische Souveränität und Sicherheit, formulierte die regulatorische Stoßrichtung unmissverständlich: Die Untersuchung solle klären, ob X seinen rechtlichen Pflichten nachgekommen sei oder ob es die Rechte der EU-Bürger als Kollateralschaden für seinen Dienst behandelt habe. Der DSA verpflichtet sehr große Online-Plattformen mit mehr als 45 Millionen monatlich aktiven Nutzern in der EU – sogenannte VLOPs – zu umfassenden Risikofolgenabschätzungen nach Artikel 34 und 35, bevor sie systemische Änderungen an ihren Diensten vornehmen. Die Integration eines generativen KI-Systems wie Grok, das von xAI entwickelt wird und eng mit der X-Plattform verwoben ist, stellt genau eine solche systemische Änderung dar. Nach Erkenntnissen der Kommission hat X vor der Einbindung von Grok keine solche Risikofolgenabschätzung durchgeführt.

Die juristische Bedeutung dieses Versäumnisses kann kaum überschätzt werden. Der DSA etabliert ein Aufsichtsregime, bei dem die Kommission selbst als Aufsichtsbehörde für besonders große Plattformen fungiert und dabei eng mit den nationalen Digital Services Coordinators zusammenarbeitet – im Falle von X, dessen europäische Tochtergesellschaft X International Unlimited Company ihren Sitz in Dublin hat, mit der irischen Medienaufsicht Coimisiún na Meán. Die Kommission verfügt unter dem DSA über weitreichende Befugnisse: Sie kann Unterlagen beschlagnahmen lassen, Zeugen vernehmen und Bußgelder verhängen, die bis zu sechs Prozent des weltweiten Jahresumsatzes eines Unternehmens betragen können. Bei einem Unternehmen der Größenordnung von X wären das potenziell Milliardensummen. Dass die Kommission dennoch derzeit kein sofortiges Durchgreifen für erforderlich hält, deutet darauf hin, dass man in Brüssel X eine gewisse Kooperationsbereitschaft zugesteht – das Unternehmen hat mehrfach versucht, seine KI-Filter neu zu justieren.

In einem zweiten Aspekt der heutigen Entscheidung verlangt die EU-Kommission von X weitere Auskünfte über die Empfehlungssystematik der Plattform – also darüber, wie entschieden wird, welchen Nutzern welche Inhalte angezeigt werden. Dies ist bereits seit längerem Gegenstand laufender Untersuchungen bei X. Der Anlass für die Erweiterung dieser Untersuchung ist ebenfalls die Integration von Grok: X beabsichtigt, Nutzern Inhalte auf Basis von KI-Empfehlungen zu präsentieren. Damit verschmilzt die algorithmische Kuratierung mit generativer KI zu einem System, dessen Auswirkungen auf die Informationslandschaft der EU kaum abzuschätzen sind. Die grüne Europaabgeordnete Alexandra Geese begrüßte den Schritt der Kommission als längst überfällig: Endlich habe die EU-Kommission ihre beste Waffe gezückt, um Europa vor den, so Geese wörtlich, “Tech-Oligarchen zu schützen”.

Aus der Perspektive der Menschenwürde, die im deutschen Grundgesetz als unantastbar verankert ist und den philosophischen Grundpfeiler der europäischen Digitalregulierung bildet, offenbart dieser Fall die fundamentalen ethischen Herausforderungen der KI-Integration in soziale Medien. Die automatisierte Generierung von sexualisierten Darstellungen – zumal solchen, die Minderjährige oder nicht einwilligende Erwachsene betreffen – stellt einen direkten Angriff auf die Würde der dargestellten Personen dar. Kommissionsvizepräsidentin Virkkunen formulierte es deutlich: Sexualisierte Deepfakes von Frauen und Kindern seien eine gewalttätige, inakzeptable Form der Herabsetzung. Die europäische Rechtsordnung reagiert hier nicht aus technologischer Naivität, sondern aus einem tief verwurzelten Verständnis dafür, dass Technologie dem Menschen dienen muss – nicht umgekehrt. Die Rechtsstaatlichkeit verlangt, dass auch die mächtigsten Technologieunternehmen an Recht und Gesetz gebunden bleiben. Der DSA-Fall gegen X zeigt: Europa nimmt diese Aufgabe ernst, auch wenn die vollständige Durchsetzung der KI-Verordnung noch aussteht. Die Kommission nutzt die ihr verfügbaren Instrumente, um Plattformen zur Verantwortung zu ziehen.

Wie wird sich das Verhältnis zwischen Plattformregulierung und KI-Governance weiterentwickeln, wenn generative Systeme immer tiefer in die Architektur sozialer Netzwerke eingebettet werden – und welche neuen Instrumente werden europäische Gesetzgeber entwickeln müssen, um die Würde der Bürgerinnen und Bürger in einer Welt allgegenwärtiger KI zu schützen?

Leave a Reply

Your email address will not be published. Required fields are marked *