In einem modernen Bürokomplex in München-Schwabing sitzt Dr. Sarah Bergmann vor ihrem Bildschirm und scrollt durch ein 144-seitiges Dokument. Als Compliance-Beauftragte eines mittelständischen Medizintechnikunternehmens ist sie seit Monaten damit beschäftigt, die Konformitätsbewertung für das KI-gestützte Diagnosesystem ihres Unternehmens vorzubereiten. Der Februar 2026 rückt näher – und mit ihm die erste große Frist des EU AI Acts für Hochrisiko-KI-Systeme. „Die Verordnung ist ambitioniert”, sagt sie am Telefon, „aber die praktische Umsetzung ist eine Herausforderung, für die viele Unternehmen noch nicht bereit sind.”
Am 2. Februar 2026 tritt eine entscheidende Phase des europäischen KI-Gesetzes in Kraft: Ab diesem Datum gelten die strengen Anforderungen für sogenannte Hochrisiko-KI-Systeme. Diese Systeme – darunter KI-Anwendungen in der medizinischen Diagnostik, im Personalwesen, in der Kreditvergabe und in kritischen Infrastrukturen – müssen dann ein umfassendes Konformitätsverfahren durchlaufen haben. Die Bundesnetzagentur, die seit Dezember 2025 als zentrale deutsche Aufsichtsbehörde fungiert, rechnet mit tausenden betroffenen Unternehmen allein in Deutschland.
Die Anforderungen des Artikel 9 bis 15 der KI-Verordnung sind umfangreich: Risikomanagmentsysteme müssen etabliert, Trainingsdaten dokumentiert, technische Dokumentationen erstellt und Aufzeichnungspflichten implementiert werden. Hinzu kommen Transparenzpflichten gegenüber Nutzern, menschliche Aufsichtsmechanismen und strenge Anforderungen an Genauigkeit, Robustheit und Cybersicherheit. Für Anbieter von KI-Systemen bedeutet dies einen fundamentalen Wandel in der Art, wie sie ihre Produkte entwickeln, dokumentieren und auf den Markt bringen.
Die Situation in der DACH-Region ist dabei besonders komplex. Deutschland hat mit dem KI-Durchführungsgesetz im Dezember 2025 die Bundesnetzagentur als zentrale Marktüberwachungsbehörde etabliert. Österreich arbeitet noch an der Festlegung seiner zuständigen Behörde, während die Schweiz als Nicht-EU-Mitglied einen eigenen Weg geht – jedoch mit dem klaren Ziel, den Marktzugang zur EU zu erhalten. Schweizer Unternehmen, die ihre KI-Produkte in der EU anbieten wollen, müssen die Anforderungen des AI Acts genauso erfüllen wie ihre europäischen Konkurrenten.
Besonders betroffen sind die traditionellen Stärken der deutschen Wirtschaft: der Maschinenbau, die Automobilindustrie und die Medizintechnik. In diesen Sektoren werden zunehmend KI-Systeme eingesetzt, die unter die Hochrisiko-Kategorie fallen. Ein KI-gestütztes Qualitätskontrollsystem in einer Automobilfabrik, ein algorithmischer Entscheidungshelfer bei der Kreditvergabe oder ein diagnostisches Unterstützungssystem in einer Radiologie-Praxis – all diese Anwendungen müssen nun den strengen europäischen Standards entsprechen.
Die wirtschaftlichen Auswirkungen sind erheblich. Erste Schätzungen von Branchenverbänden gehen davon aus, dass die Compliance-Kosten für mittelständische Unternehmen zwischen 50.000 und 500.000 Euro liegen können – abhängig von der Komplexität des KI-Systems und dem bestehenden Dokumentationsgrad. Für größere Unternehmen mit mehreren Hochrisiko-Systemen können sich diese Kosten vervielfachen. Gleichzeitig drohen bei Nichteinhaltung Sanktionen von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes.
Doch die Herausforderung ist nicht nur finanzieller Natur. Viele Unternehmen kämpfen mit einem grundsätzlicheren Problem: dem Mangel an qualifizierten Fachkräften, die sowohl das technische Verständnis für KI-Systeme als auch das juristische Wissen über die Verordnung mitbringen. Die Nachfrage nach KI-Compliance-Experten ist in den letzten Monaten explosionsartig gestiegen, während das Angebot kaum Schritt halten kann. Universitäten und Weiterbildungseinrichtungen reagieren zwar mit neuen Programmen, doch diese werden ihre Absolventen erst in einigen Jahren auf den Markt bringen.
Die Bundesnetzagentur hat zwar Leitfäden und Hilfestellungen angekündigt, doch viele Detailfragen bleiben offen. Welche konkreten Standards gelten für die technische Dokumentation? Wie genau muss ein Risikomanagmentsystem ausgestaltet sein? Welche Testverfahren werden bei der Konformitätsprüfung angewendet? Diese Fragen werden erst durch die Praxis beantwortet werden – eine Unsicherheit, die für planende Unternehmen schwer zu handhaben ist.
Aus der Perspektive der Menschenwürde – des fundamentalen Prinzips, das dem europäischen Ansatz zur KI-Regulierung zugrunde liegt – ist diese Regulierung jedoch nicht nur eine bürokratische Hürde, sondern ein notwendiger Schritt. Wenn KI-Systeme Entscheidungen treffen oder unterstützen, die das Leben von Menschen grundlegend beeinflussen können – bei der Kreditvergabe, der Personalauswahl, der medizinischen Diagnose –, dann muss die Gesellschaft sicherstellen, dass diese Systeme transparent, nachvollziehbar und fehlertolerant sind. Die Rechtsstaatlichkeit verlangt, dass auch algorithmische Macht an klare Regeln und Verantwortlichkeiten gebunden ist.
Das europäische Modell der KI-Regulierung steht dabei im Kontrast zu anderen globalen Ansätzen. Während die USA unter der neuen Administration einen deregulativen Kurs einschlagen und China auf staatliche Kontrolle und Inhaltszensur setzt, versucht Europa einen dritten Weg: Regulierung, die Innovation ermöglicht, aber gleichzeitig fundamentale Rechte schützt. Die Schweiz hat sich mit ihrer Orientierung am Europarat-Rahmenwerk für einen ähnlichen, wenn auch weniger verbindlichen Ansatz entschieden.
Die kommenden Monate werden zeigen, ob dieser europäische Weg praktikabel ist. Die Sandboxes für regulatorisches Experimentieren, die der AI Act in Artikel 57 vorsieht, könnten dabei eine wichtige Rolle spielen – sie ermöglichen es Unternehmen, innovative KI-Systeme unter Aufsicht zu entwickeln und zu testen, bevor sie den vollen Compliance-Anforderungen unterliegen. Deutschland hat angekündigt, solche Sandboxes einzurichten, und auch die Schweiz experimentiert bereits mit ähnlichen Konzepten.
Für Dr. Sarah Bergmann in München bedeutet das alles konkret: lange Arbeitstage, intensive Abstimmungen mit den Entwicklungsteams und der Rechtsabteilung, und die ständige Hoffnung, dass die Behörden noch mehr Klarheit schaffen werden. „Was mich antreibt”, sagt sie, „ist die Überzeugung, dass wir hier etwas Wichtiges aufbauen. Nicht nur für unser Unternehmen, sondern für das Vertrauen in KI insgesamt. Wenn Patienten wissen, dass das System, das ihren Arzt unterstützt, nach strengen europäischen Standards geprüft wurde – dann ist das ein Wert, den wir nicht unterschätzen sollten.”
Die Frage, die sich europäische Unternehmen und Bürger gleichermaßen stellen müssen, lautet: Kann Europa mit seiner regulatorischen Vorreiterrolle sowohl die Menschenwürde schützen als auch im globalen KI-Wettbewerb bestehen? Die Antwort wird nicht im Februar 2026 feststehen – aber der Countdown zur Compliance hat definitiv begonnen.
Leave a Reply