Was Ihr Un­ter­neh­men in 2026 wissen muss

Die Nicht­ein­hal­tung des EU AI Act (KI-Ver­ord­nung) kann teuer werden. Sehr teuer. Je nach Verstoß können die Strafen bis zu 7 % des welt­wei­ten Jah­res­um­sat­zes oder 35 Mil­lio­nen Euro be­tra­gen, je nachdem, welcher Betrag höher ist. Die Ver­ord­nung trat im August 2024 in Kraft und wird ab August 2026 vollständig an­wend­bar sein, wobei zentrale An­for­de­run­gen bereits im Vorfeld schritt­wei­se wirksam werden.

Für viele Un­ter­neh­men markiert das Jahr 2026 den Übergang von bloßer Be­ob­ach­tung hin zu echter Ver­ant­wor­tung in der KI-Re­gu­lie­rung. Was es früher zu überwachen galt, wird heute er­war­tet. Vor­stand, Aufsichtsbehörden und Kunden wollen ver­ste­hen, wie Un­ter­neh­men mit künstlicher In­tel­li­genz um­ge­hen.

Die Her­aus­for­de­rung liegt nicht nur im Verständnis der ge­setz­li­chen An­for­de­run­gen. Ent­schei­dend ist die Um­set­zung in der Praxis. Welche Or­ga­ni­sa­tio­nen sind be­trof­fen? Gilt „Hochrisiko-KI“ auch für Ihre Systeme? Welche Nach­wei­se erwarten die zuständigen Behörden? Und wie lassen sich recht­li­che An­for­de­run­gen struk­tu­riert und be­last­bar um­set­zen?

Welche Ziele verfolgt der EU AI Act?

Der EU AI Act verfolgt einen risikobasierten Ansatz zur Regulierung künstlicher Intelligenz. Je größer die potenziellen Auswirkungen eines KI-Systems auf Rechte, Sicherheit oder Chancen von Menschen sind, desto strenger sind die Anforderungen.

Im Kern unterscheidet die Verordnung zwischen verschiedenen Kategorien in der KI-Nutzung: von verbotenen Praktiken über Hochrisiko-Systeme bis hin zu Anwendungen mit geringem Risiko, für die insbesondere Transparenzanforderungen gelten. Zusätzlich werden Anforderungen für allgemeine KI-Modelle eingeführt, die heute branchenübergreifend zum Einsatz kommen.

Konkret bedeutet das:

  • bestimmte KI-Praktiken werden verboten
  • Hochrisiko-Systeme unterliegen strengen Anforderungen
  • für bestimmte Anwendungen gelten Transparenzpflichten
  • für allgemeine KI-Modelle werden eigene Regeln definiert

Diese Struktur zeigt: Der EU AI Act betrifft weit mehr als Technologieanbieter. Er gilt für alle Organisationen, die KI-Systeme in der EU entwickeln, einsetzen, integrieren, beschaffen oder nutzen – häufig ohne zu erkennen, dass sie damit bereits regulatorischen Anforderungen unterliegen.

Welche Unternehmen sind vom EU AI Act betroffen?

Eine weit verbreitete Annahme ist, dass der EU AI Act vor allem große Technologieunternehmen betrifft. In der Praxis ergibt sich die Betroffenheit jedoch häufig daraus, wie KI eingesetzt wird, und nicht daraus, wer sie entwickelt. KI ist heute in alltägliche Geschäftsprozesse integriert. In vielen Fällen setzen Unternehmen KI bereits in einer Weise ein, die unter die Regulierung fällt, ohne dies formal erkannt zu haben. Dies gilt insbesondere für Bereiche wie Personalmanagement, finanzielle Entscheidungen, einschließlich Kredit- und Versicherungsentscheidungen, Gesundheitsvorsorge und Diagnostik, Bildung und Evaluierung, öffentliche Dienstleistungen oder Infrastruktur sowie Kundenkommunikation und internen Arbeitsabläufen.

Eine zentrale Frage lautet daher: Wo beeinflussen KI-gestützte Entscheidungen bereits Ergebnisse für den Einzelnen? Genau dort beginnt die regulatorische Relevanz.

Ab wann gilt der EU AI Act – und was ändert sich 2026?

Der AI Act wird schrittweise umgesetzt, doch bis August 2026 sind die meisten Anforderungen vollständig anwendbar. Bis dahin sollten Unternehmen ein klares Verständnis ihrer KI-Landschaft haben und festlegen, wie diese gesteuert und überwacht wird. Es geht nicht um Perfektion. Aber Unternehmen sollten in der Lage sein, Folgendes nachzuweisen:

  • Transparenz über die eingesetzten KI-Systeme
  • ein einheitlicher Ansatz zur Klassifizierung
  • klar definierte Verantwortlichkeiten und Rechenschaftspflicht
  • dokumentierte Kontrollen
  • die Fähigkeit, Nachweise jederzeit bereitzustellen

Abzuwarten ist ein riskanter Ansatz. Wenn die ersten Fragen gestellt werden, wird bereits erwartet, dass strukturierte und belastbare Antworten vorliegen.

Was bedeutet „Hochrisiko-KI“?

Für viele Organisationen beginnt hier die Unsicherheit. Ob ein KI-System als "Hochrisiko" gilt, hängt weniger von der Technologie ab als von seiner Anwendung. Hochrisiko-KI liegt vor, wenn sie Entscheidungen beeinflusst, die das Leben von Menschen wesentlich beeinflussen können: zum Beispiel ihre Beschäftigung, ihre finanziellen Möglichkeiten, ihre Gesundheitsversorgung, ihre Bildung, ihre Sicherheit oder ihre rechtliche Stellung.

In der Praxis umfasst dies häufig künstliche Intelligenz, die in folgenden Prozessen eingesetzt wird:

  • Screening und Bewerberauswahl
  • Bewertung der Kreditwürdigkeit oder des Versicherungsrisikos
  • Unterstützung medizinischer Entscheidungen
  • Leistungsbewertung in Bildung und Training
  • Priorisierung beim Zugang zu wichtigen Dienstleistungen

Dabei handelt es sich nicht um Nischenlösungen, sondern um betriebliche Kernprozesse. Gleichzeitig hat nicht jede KI-Anwendung das gleiche Gewicht. Ein Chatbot für allgemeine Anfragen ist etwas anderes als ein KI-System, das über Einstellungen oder Kredite mitentscheidet.

Oft wird unterschätzt, wie schnell „nützliche Automatisierung“ zu „regulierter Entscheidungshilfe“ wird, die reale Ergebnisse beeinflusst. Deshalb muss die Klassifizierung:

  • konsistent,
  • dokumentiert und
  • überprüfbar

sein – und keine informelle Entscheidung, die einmal getroffen und dann nicht mehr angefochten wird.

ISO 42001 Checkliste_DE_PDF
Loading...
Kostenfreies Whitepaper bietet Orientierung

ISO/IEC 42001 – Check­lis­te

Diese Check­lis­te bietet einen struk­tu­rier­ten Ein­stieg, um den Einsatz von KI in Ihrer Or­ga­ni­sa­ti­on zu er­fas­sen. Sie hilft dabei, be­stehen­de Go­ver­nan­ce-Struk­tu­ren zu bewerten und re­le­van­te An­for­de­run­gen der in­ter­na­tio­na­len Norm ISO/IEC 42001 besser ein­zu­ord­nen.

Welche Anforderungen stellt der EU AI Act an KI-Governance?

Wenn es um risikoreiche KI geht, verschiebt sich der Schwerpunkt der Regulierung. Es geht nicht mehr nur um das Modell selbst. Es geht um das Governance-System, das es umgibt. Die zuständigen Behörden sind daran interessiert, dass die Unternehmen die Kontrolle nachweisen können. Dazu gehörtauch, wie Risiken identifiziert und Entscheidungen dokumentiert werden, wie die Aufsicht aufrechterhalten und mit Herausforderungen umgegangen wird, wenn etwas schief geht.

Dies erfordert in der Regel, dass sich Organisationen mit folgenden Bereichen befassen:

  • Risikomanagement und Rechenschaftspflicht
  • Datenverwaltung und Datendokumentation,
  • Transparenz und Rückverfolgbarkeit
  • menschliche Aufsicht
  • Überwachung und Behandlung von Zwischenfällen

Zusammengenommen sind dies keine isolierten Anforderungen, sondern bilden eine Governance-Struktur.

In der Praxis geht es bei der Einhaltung der Vorschriften weniger darum, die Funktionsfähigkeit eines Modells zu belegen, sondern vielmehr darum zu zeigen, dass die Organisation dahinter die Kontrolle darüber ausübt.

Verbotene Praktiken und KI für allgemeine Zwecke

Der AI Act definiert auch verbotene KI-Anwendungen. Diese sind zwar sehr eng gefasst, werden aber mit den höchsten Strafen geahndet. Unternehmen sollten nachweisen können, dass diese Praktiken im Rahmen ihrer KI-Governance berücksichtigt und ausgeschlossen wurden.

Gleichzeitig entsteht durch universelle KI eine neue Komplexität: Viele Unternehmen verlassen sich auf KI-Funktionen, die in Tools von Drittanbietern eingebettet sind, anstatt ihre eigenen Modelle zu entwickeln.

Dies wirft Fragen auf in Bezug auf die Aufsicht über Zulieferer, die Transparenz und Dokumentation sowie auf die Art und Weise, wie Risiken entlang der Lieferkette gesteuert werden. In der Praxis endet KI-Governance nicht beim Einkauf. Sie muss die tatsächliche Nutzung von künstlicher Intelligenz im Tagesgeschäft abdecken.

 

Fragen, die sich Unternehmen jetzt stellen müssen

In allen Branchen hat sich die Diskussion über KI verändert. Es geht nicht mehr nur um Innovation, sondern um Verantwortung und Rechenschaftspflicht. Führungsteams stellen sich Fragen wie:

  • Wo genau setzen wir KI ein?
  • Welche dieser Anwendungen könnten hochriskant sein?
  • Wer trägt die Verantwortung für die damit verbundenen Risiken?
  • Welche Dokumentation existiert?
  • Können wir unsere Kontrollen gegenüber den zuständigen Behörden erklären?

Dabei handelt es sich nicht ausschließlich um rechtliche Fragestellungen, sondern vor allem um Fragen der Governance. Unternehmen, die bereits über strukturierte Managementsysteme verfügen, sind oft im Vorteil. Sie sind es gewohnt, Verantwortlichkeiten festzulegen, dokumentierte Information zur Verfügung zu stellen und und Nachvollziehbarkeit sicherzustellen. Die Herausforderung besteht darin, diese Systematik konsequent auf den Einsatz von KI zu übertragen.

Wie Governance-Rahmenwerke die EU AI Act Compliance unterstützen

Der EU AI Act definiert Anforderungen, aber nicht, wie die Governance intern strukturiert sein sollte. Hier setzen Managementsysteme an. Sie helfen, Zuständigkeiten, Prozesse und Kontrollen in einem konsistenten und wiederholbaren Rahmen zu verbinden.

In der Praxis bringt ein strukturierter KI-Governance-Ansatz klar definierte Verantwortlichkeiten, ein vollständiges Inventar von KI-Systemen und Anwendungsfällen sowie eine einheitliche Methode zur Klassifizierung und Risikobewertung zusammen. Er umfasst den gesamten Lebenszyklus, unterstützt durch dokumentierte Richtlinien sowie Mechanismen zur Überwachung, Eskalation und kontinuierlichen Verbesserung.

Für viele Unternehmen hat sich die internationale Norm ISO/IEC 42001 zu einem relevanten Standard in diesem Bereich entwickelt. Sie bietet einen zertifizierbaren Ansatz für das Management von KI-Systemen. Wichtig ist die Unterscheidung:

  • der EU AI Act definiert rechtliche Anforderungen
  • strukturierte Governance-Ansätze wie ISO 42001 helfen bei deren Umsetzung
  • unabhängige Begutachtungen stärken das Vertrauen in ihre Anwendung
Our German whitepaper offers practical guidance and expert insights into ISO 42001, making it a valu
Loading...
Kostenfreies Whitepaper

KI-Go­ver­nan­ce mit ISO/IEC 42001

Wert­vol­le In­for­ma­tio­nen rund um KI-Ma­nage­ment­sys­te­me

Für den ver­ant­wor­tungs­vol­len Einsatz von KI brauchen Un­ter­neh­men klare Go­ver­nan­ce-Struk­tu­ren. ISO/IEC 42001 bietet dafür einen ri­si­ko­ba­sier­ten Ansatz zur trans­pa­ren­ten und nach­voll­zieh­ba­ren Steue­rung. Unser kos­ten­lo­ses White­pa­per bietet fun­dier­te Ein­bli­cke in die Norm und ihre An­for­de­run­gen.

Erste Schritte zur KI-Governance 

Für die meisten Unternehmen besteht der Ausgangspunkt nicht in einer gründlichen technischen Überprüfung jedes KI-Modells. Es geht um Klarheit, dabei folgt ein pragmatischer Ansatz oft einem einfachen Ablauf:

  1. Transparenz schaffen
    Analysieren Sie, wo im Unternehmen bereits KI eingesetzt wird, einschließlich interner Systeme, Drittanbieter-Tools und eingebetteter Funktionen, die möglicherweise nicht auf den ersten Blick erkennbar sind.
  2. Verantwortung klären
    Legen Sie Verantwortlichkeiten fest. Definieren Sie, wer für Aufsicht, Risikobewertung und Dokumentation zuständig ist. Ohne klare Verantwortlichkeiten bleibt Governance in der Regel informell.
  3. Anwendungsrisiken bewerten
    Identifizieren Sie Bereiche, in denen Fragen zu Hochrisiko-Anwendungen oder verbotenen Nutzungen auftreten können. Dies ist selten eine rein technische Aufgabe, sondern erfordert die Einbindung von Rechts-, Compliance-, Risiko- und operativen Funktionen.
  4. Governance aufbauen
    Richten Sie Richtlinien, Kontrollen und Prozesse so aus, dass ein konsistentes und wiederholbares Modell entsteht.

Das Ziel ist nicht, von Anfang an Perfektion zu erreichen. Entscheidend ist Nachweisbarkeit, die Fähigkeit zu zeigen, dass KI-Systeme verstanden und Risiken bewertet werden sowie KI-Governance strukturiert angewendet wird.

 

EU AI Act  2026: Was gut vorbereitete Unternehmen auszeichnet

Der EU AI Act ist nicht nur eine regulatorische Entwicklung, sondern ein Maßstab für die organisatorische Reife eines Unternehmens. Für 2026 werden nicht unbedingt die Organisationen am besten vorbereitet sein, die über die fortschrittlichsten KI-Fähigkeiten verfügen, sondern jene, die klar darlegen können, wie diese gesteuert und verantwortet werden.

Unternehmen müssen in der Lage sein zu erklären:

  • was sie einsetzen
  • welche Risiken damit verbunden sind
  • wie diese Risiken gesteuert werden
  • wer die Verantwortung trägt

Für viele stellt sich nicht mehr die Frage, ob KI-Governance formalisiert werden muss, sondern ob sie belastbar nachgewiesen werden kann. Statt bei Null anzufangen, geht es zunehmend darum, bestehende KI-Managementsysteme weiterzuentwickeln, sodass sie den tatsächlichen Einsatz von künstlicher Intelligenz abbilden – strukturiert, transparent und im Bedarfsfall nachvollziehbar.

Sprechen Sie mit der DQS

In­for­mie­ren Sie sich, wie der EU AI Act auf Ihre Or­ga­ni­sa­ti­on an­wend­bar ist und welchen Mehrwert ein KI-Ma­nage­ment­sys­tem schafft.

Die DQS ist vom US-ame­ri­ka­ni­schen ANSI National Ac­cre­di­ta­ti­on Board (ANAB) ak­kre­di­tiert und damit berechtigt, ak­kre­di­tier­te ISO/IEC 42001-Zer­ti­fi­ka­te aus­zu­stel­len.

Kon­tak­tie­ren Sie uns

Vertrauen und Expertise

Unsere Texte und Broschüren werden ausschließlich von unseren Normexperten oder langjährigen Auditoren verfasst. Sollten Sie Fragen zu den Textinhalten oder unseren Dienstleistungen an unseren Autor haben, senden Sie uns gerne eine E-Mail: [email protected]

Hinweis: Wir verwenden aus Gründen der besseren Lesbarkeit das generische Maskulinum. Die Direktive schließt jedoch grundsätzlich Personen jeglicher Geschlechteridentitäten mit ein, soweit es für die Aussage erforderlich ist.

Autor

Aakriti Patwari

Loading...

Das könnte Sie auch in­ter­es­sie­ren. 

Weitere Fach­bei­trä­ge und Ver­an­stal­tun­gen der DQS 
Blog
Loading...

NIS-2 für Ge­schäfts­füh­rer: Pflich­ten, Haftung und Um­set­zung im Un­ter­neh­men

Blog
Loading...

Kri­sen­kom­mu­ni­ka­ti­on beim Ran­som­wa­re Angriff

Blog
Loading...

Der Si­cher­heits­drei­klang der Zukunft