Meta-Beschreibung: Artikel 26 EU AI Act begründet unmittelbare Betreiberpflichten für Banken, Versicherer und Vermögensverwalter – die kein Lieferantenvertrag ablösen kann. Eine DACH-spezifische Praxisanalyse.
Kanonische URL: https://ekmgc.de/insights/article-26-deployer-obligations.html
Pillarseite: EU AI Act Artikel 9 — Risikomanagementsystem: Praxisleitfaden
Schema.org-Empfehlung: Article, FAQPage
Veröffentlicht: 2. August 2026 | Autor: EKM Global Consulting GmbH
Sprache / Langue / Lingua: Deutsch (DE) | <html lang="de">
Zusammenfassung Die weit verbreitete Annahme, ein sorgfältig formulierter KI-Lieferantenvertrag übertrage die regulatorische Verantwortung vollständig auf den Anbieter und schütze den Betreiber vor Aufsichtsmaßnahmen, hält einer rechtlichen Prüfung nicht stand. Verordnung (EU) 2024/1689 begründet in Artikel 26 einen eigenständigen Pflichtenkatalog für jede Organisation, die ein Hochrisiko-KI-System in eigener Verantwortung betreibt — unabhängig davon, wer das System entwickelt hat. Kreditinstitute, die KI-Kreditscoring einsetzen, Versicherer, die automatisierte Zeichnungsmodelle nutzen, und HR-Abteilungen, die Bewerber-Vorauswahl-Tools betreiben, tragen jeweils direkte, nicht delegierbare Pflichten. Ein technisch konformer Lieferantenvertrag ist eine notwendige Bedingung — eine hinreichende ist er nicht, und er übersteht keine Aufsichtsprüfung als alleinige Compliance-Grundlage.
Inhaltsverzeichnis
- Anbieter vs. Betreiber — die Abgrenzung nach Artikel 3
- Artikel 26 — vollständige Aufschlüsselung der Teilpflichten
- Das Missverständnis „Wir sind nur der Betreiber"
- DACH-Finanzdienstleister: regulatorisches Overlay
- Praxisbeispiele
- Implikationen für Beschaffungsverträge
- Was Betreiber beauftragen müssen
- Häufig gestellte Fragen
1. Anbieter vs. Betreiber — die Abgrenzung nach Artikel 3
Verordnung (EU) 2024/1689 (EU AI Act) zieht eine präzise Grenze zwischen zwei Rollen. Ein Anbieter (Art. 3(3)) ist jede natürliche oder juristische Person, die ein Hochrisiko-KI-System entwickelt und es unter eigenem Namen auf dem Markt bereitstellt oder in Betrieb nimmt. Ein Betreiber (Art. 3(4)) ist jede natürliche oder juristische Person, die ein Hochrisiko-KI-System in eigener Verantwortung für einen beruflichen Zweck nutzt.
Die entscheidende Konsequenz: Wenn eine deutsche Sparkasse ein automatisiertes Kreditbewertungsmodell von einem Technologieanbieter erwirbt und es in den eigenen Kreditvergabeprozess integriert, ist die Sparkasse der Betreiber und der Technologielieferant der Anbieter. Beide Seiten tragen Pflichten. Die Anbieterpflichten — technische Dokumentation, CE-Kennzeichnung, Protokollierungsfähigkeit, Gebrauchsanweisung — heben die Betreiberpflichten nach Art. 26 nicht auf. Sie laufen parallel.
Diese Abgrenzung ist von erheblicher praktischer Bedeutung, da Anhang III der Verordnung für Finanzdienstleistungen ausdrücklich KI-Systeme zur Kreditwürdigkeitsprüfung und zum Kreditscoring (Anhang III, Nr. 5b) als Hochrisikobereich einstuft, ebenso wie Systeme zur Risikoprüfung und Tarifierung in der Lebens- und Krankenversicherung. Auch Systeme für Personalentscheidungen und Mitarbeitendenmanagement (Anhang III, Nr. 4) sind erfasst — relevant für jeden regulierten Großarbeitgeber, der automatisierte Vorauswahl- oder Leistungsbewertungstools einsetzt.
2. Artikel 26 — vollständige Aufschlüsselung der Teilpflichten
Art. 26(1): Betrieb gemäß Gebrauchsanweisung des Anbieters
Der Betreiber muss das Hochrisiko-KI-System entsprechend der Gebrauchsanweisung betreiben, die der Anbieter nach Art. 13 bereitzustellen hat. Dies ist keine bloß vertragliche Verpflichtung — es handelt sich um eine unmittelbare regulatorische Anforderung. Betreibt ein Kreditinstitut ein Betrugserkennungsmodell in einer Konfiguration, die der Anbieter weder dokumentiert noch getestet hat, liegt die Compliance-Verantwortung beim Betreiber.
Diese Teilpflicht verknüpft sich unmittelbar mit dem Risikomanagementsystem nach Artikel 9: Das eigene RMS des Betreibers muss das vom Anbieter definierte Risikoprofil und die operativen Grenzen des Systems einbeziehen und darüber hinaus Restrisiken identifizieren, die sich aus dem spezifischen Einsatzkontext des Betreibers ergeben.
Art. 26(2): Zuweisung der menschlichen Aufsicht nach Artikel 14
Jeder Betreiber eines Hochrisiko-KI-Systems muss natürliche Personen benennen, die für die Aufgabe der menschlichen Aufsicht (Art. 14) geeignet und angemessen geschult sind. Artikel 14 zählt zu den operativ anspruchsvollsten Bestimmungen der Verordnung. Die benannten Personen müssen:
- die Fähigkeiten und Grenzen des Systems verstehen;
- Systemausgaben korrekt interpretieren können;
- in der Lage sein, das System zu übergehen, zu korrigieren oder anzuhalten;
- keinen Anreizstrukturen ausgesetzt sein, die eine Intervention entmutigen.
Kompetenz und Schulung sind nicht an den Anbieter delegierbar. Der Betreiber muss die Rolle, die Qualifikationskriterien und die Eingriffsbefugnis in seiner internen Governance-Dokumentation festhalten. Audit-Evidenz über diese Zuweisung ist bei jeder Aufsichtsprüfung erforderlich.
Art. 26(3): Eingabedaten müssen relevant und hinreichend repräsentativ sein
Soweit der Betreiber die dem System zugeführten Daten kontrolliert, müssen diese Daten für den vorgesehenen Zweck relevant und hinreichend repräsentativ sein. Für Kreditinstitute bedeutet dies, dass die Eingabedaten-Pipelines — Kundenfinanzhistorien, Auskunftei-Scores, Verhaltenssignale — einem Repräsentativitätsmaßstab genügen müssen. Das Einspeisen strukturell verzerrter oder zeitlich veralteter Eingaben begründet eine Betreiberpflicht-Verletzung, unabhängig von der modellinternen Qualität.
Art. 26(4): Monitoring des Betriebs; Aussetzung bei identifizierten Risiken
Der Betreiber muss den Betrieb des Hochrisiko-KI-Systems fortlaufend überwachen — entsprechend der Gebrauchsanweisung — und dessen Einsatz aussetzen, wenn Anhaltspunkte bestehen, dass der Betrieb eine Gefahr für Gesundheit, Sicherheit oder Grundrechte darstellen könnte. Diese Überwachungspflicht erfordert ein formales Programm — keine anlassbezogene Überprüfung — mit definierten KPIs, Eskalationskriterien und Entscheidungsbefugnissen für die Aussetzung. Mündliche Absprachen innerhalb des Teams erfüllen die Anforderung nicht.
Art. 26(5): Aufbewahrung automatisch erzeugter Protokolle — Mindestdauer 6 Monate
Soweit der Betreiber die Protokoll-Infrastruktur kontrolliert, müssen automatisch erzeugte Protokolle mindestens sechs Monate aufbewahrt werden, sofern Unionsrecht oder nationales Recht keine abweichenden Regelungen treffen. Für regulierte Finanzinstitute, die den Anforderungen nach DORA (Verordnung (EU) 2022/2554), MaRisk AT 9 oder bereichsspezifischer Aufsicht unterliegen, kann die maßgebliche Aufbewahrungsfrist länger sein. Der wesentliche Punkt: Die Protokollaufbewahrung ist eine Betreiberpflicht — kein bloßes Anbietermerkmal.
Art. 26(6): Grundrechte-Folgenabschätzung (FRIA)
Betreiber, die entweder: - (a) öffentliche Stellen sind, oder - (b) private Betreiber, die Leistungen von allgemeinem Interesse erbringen,
müssen vor Inbetriebnahme eines Hochrisiko-KI-Systems eine Grundrechte-Folgenabschätzung (FRIA) durchführen (Art. 26(6), Verfahren in Art. 27 geregelt). Die FRIA muss die betroffenen Personengruppen benennen, Risiken für Grundrechte einschätzen und Maßnahmen zur Risikominderung dokumentieren.
Entscheidend: Art. 29a erweitert die FRIA-Pflicht ausdrücklich auf Kreditinstitute, die Kreditwürdigkeitsprüfung oder Kreditscoring automatisiert durchführen, sowie auf Betreiber von Systemen zur Risikoprüfung und Tarifierung in der Lebens- und Krankenversicherung. Diese privaten Wirtschaftsakteure können nicht davon ausgehen, dass die FRIA-Pflicht für sie nicht gilt. Sie gilt.
Die FRIA ist ein Vor-Inbetriebnahme-Dokument. Sie nach dem Go-live zu erstellen ist nicht konform. Eine unvollständige FRIA übersteht keine Aufsichtsprüfung.
Art. 26(7): Aussetzung und Unterrichtung des Anbieters bei identifizierten Risiken
Stellt ein Betreiber im laufenden Betrieb fest, dass der weitere Einsatz eine Gefahr für Gesundheit, Sicherheit oder Grundrechte darstellen könnte, muss er das System sowohl aussetzen als auch den Anbieter unterrichten. Dies ist eine doppelte Pflicht. Alleinige Aussetzung — ohne Anbieter-Benachrichtigung — ist nicht konform. Diese Bestimmung schafft ein vertragliches Erfordernis: Der Betreiber muss einen dokumentierten Benachrichtigungskanal zum Anbieter eingerichtet haben, mit vereinbarten Reaktionszeiten.
Art. 26(8): Unterrichtung der Beschäftigten vor KI-Einsatz am Arbeitsplatz
Vor dem Einsatz eines Hochrisiko-KI-Systems, das Beschäftigte betrifft — etwa KI zur Personalauswahl, Leistungsbewertung, Aufgabenzuweisung oder Überwachung — muss der Betreiber Arbeitnehmervertretungen und betroffene Beschäftigte gemäß dem jeweils anwendbaren nationalen Recht unterrichten. In Deutschland überschneidet sich diese Pflicht mit den Mitbestimmungsrechten des Betriebsrats gemäß Betriebsverfassungsgesetz (BetrVG). In Österreich gelten entsprechende Anforderungen aus dem Arbeitsverfassungsgesetz (ArbVG). Betreiber, die diesen Schritt überspringen, sind doppelter Exposition ausgesetzt: nach dem EU AI Act und nach nationalem Arbeitsrecht.
Art. 26(11): Kooperation mit nationalen Marktüberwachungsbehörden
Betreiber müssen mit nationalen Marktüberwachungsbehörden kooperieren und alle erforderlichen Informationen und Zugang für Aufsichtszwecke bereitstellen. Für deutsche Banken und Versicherer ist BaFin die maßgebliche Aufsichtsbehörde. Für Gesundheitsdienstleister gilt die nach nationalem Recht benannte zuständige Behörde. Dabei handelt es sich nicht um eine passive Pflicht — sie erfordert, dass Betreiber Unterlagen in einer Form vorhalten, die auf Anforderung vorgelegt werden kann.
3. Das Missverständnis „Wir sind nur der Betreiber"
In Beschaffungsgesprächen ist ein Muster zu beobachten: die Annahme, ein sorgfältig formulierter Lieferantenvertrag — der festlegt, dass der Anbieter für CE-Kennzeichnung, technische Dokumentation und Konformitätsbewertung zuständig ist — übertrage die regulatorische Last und schütze den Betreiber vor Aufsichtsmaßnahmen.
Diese Annahme ist aus drei Gründen unzutreffend.
Erstens gelten die Pflichten nach Art. 26 für den Betreiber unmittelbar kraft Gesetzes. Sie werden durch Vertrag nicht verdrängt. Eine nationale Aufsichtsbehörde, die das KI-Governance-System eines Kreditinstituts überprüft, wird prüfen, ob das Institut Art. 26 eigenständig erfüllt hat — unabhängig davon, ob ein Vertrag besagt, dass der Anbieter die Verantwortung trägt. Pflichten unabhängig vom Vertrag ist hier die maßgebliche Formulierung.
Zweitens können viele Pflichten aus Art. 26 physisch nicht durch den Anbieter erfüllt werden. Der Anbieter kann nicht das Personal des Kreditinstituts für die menschliche Aufsicht (Art. 26(2)) benennen. Der Anbieter kann nicht die Repräsentativität der institutseigenen Eingabedaten (Art. 26(3)) sicherstellen. Der Anbieter kann nicht die Arbeitnehmervertretung des Instituts unterrichten (Art. 26(8)). Diese Pflichten liegen strukturell beim Betreiber.
Drittens muss die FRIA (Art. 26(6), Art. 27, Art. 29a) vom Betreiber erstellt werden. Sie erfordert Kenntnis des spezifischen Betriebskontexts des Betreibers, der konkret betroffenen Bevölkerungsgruppe und der spezifisch auf dem Spiel stehenden Grundrechte. Ein Anbieter kann dieses Dokument nicht stellvertretend erstellen, weil ihm dieses Wissen fehlt.
Der Vertrag bleibt wichtig — als Instrument zur Erlangung der Gebrauchsanweisung, zur Sicherung des Protokollzugangs, zur Etablierung von Änderungsbenachrichtigungsverfahren und zur Gestaltung des Informationskanals nach Art. 26(7). Er ist aber ein Mittel, kein Ersatz.
4. DACH-Finanzdienstleister: regulatorisches Overlay
BaFin MaRisk AT 9
Das Modul AT 9 der Mindestanforderungen an das Risikomanagement (MaRisk) regelt das Drittparteirisiko für deutsche Kreditinstitute. MaRisk AT 9 verlangt eine dokumentierte Risikoanalyse vor der Auslagerung, eine laufende Überwachung wesentlicher Dienstleister, vertragliche Prüfungs- und Informationsrechte sowie Ausstiegsstrategien. Qualifiziert ein KI-Anbieter als wesentlicher Auslagerungspartner — was bei jedem für die Risikoprozesse des Instituts wesentlichen Kreditscoring- oder Betrugserkennungssystem der Fall ist — laufen MaRisk AT 9 und Art. 26 parallel und müssen innerhalb desselben Governance-Rahmens adressiert werden.
DORA: IKT-Drittparteienrisiko
Für Unternehmen im Anwendungsbereich von DORA (Verordnung (EU) 2022/2554) müssen die Anforderungen an das IKT-Drittparteienrisikomanagement nach Art. 28 bis 39 DORA im Zusammenhang mit Art. 26 EU AI Act gelesen werden. DORA erfordert vertragliche Regelungen zu Prüfungsrechten, Serviceniveaus, Vorfallmeldungen und Geschäftskontinuität. Die Aussetzungs- und Benachrichtigungspflicht nach Art. 26(7) sollte in den DORA-Vorfallmeldungsrahmen eingebettet werden.
NIS2: Lieferkettensicherheit
Richtlinie (EU) 2022/2555 (NIS2) verpflichtet Einrichtungen, Maßnahmen zur Bewältigung von Risiken aus der Lieferkette umzusetzen. Ist ein KI-System Teil eines digitalen Dienstes oder Netzes, sind NIS2-Lieferketten-Sicherheitsbewertungen und die EU AI Act-Betreiberpflichten komplementäre Sorgfaltspflichten.
DSGVO Art. 22: Automatisierte Einzelentscheidungen
Soweit ein Hochrisiko-KI-System Entscheidungen erzeugt, die Einzelpersonen betreffen — Kreditablehnungen, Versicherungstarifierung — ist DSGVO Art. 22 einschlägig. Das Recht aus Art. 22, nicht ausschließlich automatisierten Entscheidungen mit erheblichen Auswirkungen unterworfen zu werden, begründet eine zusätzliche Dokumentations- und Überprüfungsschicht, die mit der Spezifikation der menschlichen Aufsicht nach Art. 14 EU AI Act integriert werden muss. Die BfDI und die Landesdatenschutzbehörden haben hier Durchsetzungsbefugnis.
Art. 29a: FRIA für Kredit- und Versicherungsgeschäft
Wie in Abschnitt 2 ausgeführt, erweitert Art. 29a die FRIA-Pflicht ausdrücklich auf Kreditinstitute und Versicherungsunternehmen. Deutsche Banken und Versicherer, die automatisiertes Kreditscoring oder Lebens-/Gesundheitstarifierung betreiben, sind im Anwendungsbereich. Die FRIA muss vor dem Go-live abgeschlossen und bei der nationalen Marktüberwachungsbehörde registriert werden.
5. Praxisbeispiele
Kreditentscheidungs-KI bei einer deutschen Sparkasse
Ein regionales Kreditinstitut setzt ein Anbietermodell zur automatisierten Verbraucherkreditprüfung ein. Die Einstufung nach Anhang III, Nr. 5b macht dies zu einem Hochrisiko-KI-System. Die FRIA nach Art. 26(6) / Art. 29a muss vor der Inbetriebnahme abgeschlossen sein. Die menschliche Aufsicht nach Art. 26(2) muss Kreditsachbearbeiterinnen und -bearbeitern mit dokumentierten Kompetenzkriterien zugewiesen werden. Die Eingabedaten — lokale Auskunftei-Datenfeeds — müssen dem Repräsentativitätsmaßstab nach Art. 26(3) genügen. Automatisch erzeugte Entscheidungsprotokolle müssen nach Art. 26(5) aufbewahrt werden. Eine menschliche Überprüfung nach DSGVO Art. 22 muss für jede ablehnende Entscheidung dokumentiert sein.
Bewerber-Vorauswahl-KI bei einem österreichischen Versicherungsunternehmen
Ein Versicherer setzt ein KI-Vorauswahlsystem für die Massenrekrutierung ein. Anhang III, Nr. 4 stuft dieses als Hochrisikobereich ein. Art. 26(8) verlangt eine vorherige Unterrichtung des Betriebsrats gemäß Arbeitsverfassungsgesetz vor der Inbetriebnahme. Art. 26(2) erfordert geschulte HR-Prüferinnen und -prüfer mit dokumentierter Befugnis, Vorauswahlentscheidungen außer Kraft zu setzen. Der Versicherer kann die Modell-Dokumentation des Anbieters nicht als Ersatz für eine eigene FRIA heranziehen, soweit er als Anbieter von Leistungen von allgemeinem Interesse qualifiziert.
Betrugserkennungs-KI bei einem Schweizer Rückversicherer
Ein Rückversicherungsunternehmen setzt ein Transaktions-Betrugserkennungsmodell im Schadeneingang ein. Die Monitoring-Pflichten nach Art. 26(4) erfordern ein formales operatives Überwachungsprogramm — keine Quartalsberichte. Die Aussetzungspflicht (Art. 26(7)) muss in betriebliche Vorfallabläufe eingebettet werden. Die Protokollaufbewahrung (Art. 26(5)) muss mit den DORA-IKT-Vorfallaufbewahrungsanforderungen koordiniert werden. Das Risikomanagementsystem nach Artikel 9 muss dokumentieren, wie Restrisiken aus der Falschpositivrate des Betrugsmodells gesteuert werden. Eine Wesentliche Änderung am Modell durch den Anbieter muss dem Betreiber vorab gemeldet werden; andernfalls droht der Verlust der Konformitätsbasis.
Dokumentenklassifikations-KI in der Schadenbearbeitung eines Versicherers
Ein Versicherer setzt ein Dokumentenklassifikationsmodell zur Vorsortierung eingehender Schäden ein. Lösen die Klassifikationsausgaben folgenreiche Entscheidungen aus — Prioritätssetzung, Betrugsverdachts-Flag, Deckungsprüfung — ist das System voraussichtlich als Hochrisiko-KI-System einzustufen, das den Zugang zu Leistungen betrifft. Compliance mit Art. 26(1) verlangt die Einhaltung der operativen Anweisungen des Anbieters; jede Abweichung muss dokumentiert und risikobeurteilt werden. Art. 26(3) erfordert, dass das Trainings- und Eingabedokumenten-Korpus für die tatsächliche Schadenpopulation repräsentativ ist. Die Beobachtung nach dem Inverkehrbringen durch den Anbieter entbindet den Betreiber nicht von seinen eigenen Monitoring-Pflichten.
6. Implikationen für Beschaffungsverträge
Der Vertrag des Betreibers mit dem KI-Anbieter ist das primäre Instrument zur Erlangung der Grundlagen, die Art. 26 voraussetzt. Folgende Regelungen sind operativ notwendig — nicht bloß bewährte Praxis.
Gebrauchsanweisung (Art. 13 / Art. 26(1)): Der Vertrag muss festlegen, dass der Anbieter eine Gebrauchsanweisung als vertragliche Leistung liefert, pflegt und bei Wesentlichen Änderungen aktualisiert, mit Versionskontrolle und Änderungsbenachrichtigung.
Protokollzugang und Aufbewahrungsunterstützung (Art. 26(5)): Werden Protokolle auf Anbieter-Infrastruktur vorgehalten, muss der Vertrag dem Betreiber Zugang, Exportmöglichkeit und eine Aufbewahrungsfrist zusichern, die mit Art. 26(5) und den anwendbaren Sektoranforderungen konsistent ist.
Wesentliche Änderung — Vorankündigungspflicht: Der EU AI Act behandelt eine Wesentliche Änderung als Ereignis, das Konformitätsverpflichtungen neu auslösen kann. Der Betreiber muss eine Vorankündigung jeder geplanten Wesentlichen Änderung am Modell, an der Scoring-Logik oder an den Dateneingaben erhalten — mit ausreichend Vorlaufzeit für eine Neubewertung der FRIA und der Repräsentativität nach Art. 26(3).
Informationskanal nach Art. 26(7): Der Vertrag muss einen dokumentierten Eskalationsweg festlegen, über den der Betreiber den Anbieter über identifizierte Risiken unterrichtet, mit vereinbarten Reaktionszeiten. Dies ist eine regulatorische Pflicht, keine bloße Service-Level-Vereinbarung.
Behördenkooperation (Art. 26(11)): Der Vertrag sollte die Mitwirkung des Anbieters im Fall einer Aufsichtsanfrage vorsehen, einschließlich des Zugangs zu technischer Dokumentation und Prüfprotokollen.
Für die Struktur und Dokumentationsanforderungen, die diese Vertragsregelungen untermauern, lesen Sie den Praxisleitfaden zum Risikomanagementsystem nach Artikel 9.
7. Was Betreiber beauftragen müssen
Betreiber aus dem DACH-Finanzdienstleistungs- und Gesundheitssektor müssen typischerweise Folgendes vor dem Go-live eines Hochrisiko-KI-Systems beauftragen.
-
FRIA je Anwendungsfall — eine strukturierte Bewertung nach Art. 27 und Art. 29a, die betroffene Personengruppen, auf dem Spiel stehende Grundrechte, Risikowahrscheinlichkeit und -schwere sowie Minderungsmaßnahmen abdeckt. Für Kredit- und Versicherungsanwendungsfälle ist die FRIA verpflichtend, unabhängig davon, ob der Betreiber eine öffentliche Stelle ist.
-
Spezifikation der menschlichen Aufsicht nach Artikel 14 — eine dokumentierte Spezifikation, die die Aufsichtsrolle(n), qualifizierende Kompetenzkriterien, erforderliche Schulungen (einschließlich modellspezifischer Schulungen), Entscheidungsbefugnis und Eingriffsprozeduren benennt. Diese Spezifikation muss in die operativen Abläufe des Betreibers und die Schulungsnachweise der Mitarbeitenden integriert werden. Audit-Evidenz erforderlich.
-
Konfiguration der Protokollaufbewahrung — eine dokumentierte Konfiguration, die festlegt, welche Protokolle erzeugt werden, wo sie gespeichert werden (Anbieter- vs. Betreiber-Infrastruktur), wer die Aufbewahrungspflicht trägt und welche Mindest-Aufbewahrungsfrist gilt.
-
Monitoring-KPIs und Aussetzungsprotokolle — ein formales Monitoring-Programm mit definierten Metriken (Genauigkeitsdrift, Bias-Indikatoren, Falschpositiv-/Falschnegativquoten), Eskalationsschwellenwerten und einem dokumentierten Aussetzungsprotokoll, das Entscheidungsbefugnisse und das Anbieter-Benachrichtigungsverfahren nach Art. 26(7) festlegt.
-
Dokumentation der Beschäftigtenunterrichtung (Art. 26(8)) — für arbeitsplatzbezogene KI: Nachweis, dass die Betriebsrats-Konsultation oder Beschäftigtenunterrichtung gemäß nationalem Recht vor der Inbetriebnahme erfolgt ist (BetrVG für Deutschland, ArbVG für Österreich).
-
Integration in das operative Risikomanagementsystem — Das RMS des Betreibers nach Art. 9 muss alle vorgenannten Elemente einbeziehen. Der Praxisleitfaden zum Risikomanagementsystem nach Artikel 9 legt die Struktur für die Integration betreiberspezifischer Risikoidentifikation, -bewertung und -minderung in ein dokumentiertes System dar.
8. Häufig gestellte Fragen
F: Wenn unser KI-Anbieter für das System eine CE-Kennzeichnung hält, sind wir als Betreiber automatisch konform?
Eine CE-Kennzeichnung des Anbieters belegt, dass das System zum Zeitpunkt der Marktbereitstellung die Konformitätsanforderungen erfüllte. Sie überträgt keine der Betreiberpflichten nach Art. 26 und entbindet nicht von diesen. Die FRIA des Betreibers, die Zuweisung der menschlichen Aufsicht, die Protokollaufbewahrung und das Monitoring-Programm bleiben eigenständig erforderlich.
F: Gilt Artikel 26 für uns, wenn wir das KI-System nur intern und nicht für Entscheidungen über Kundinnen und Kunden einsetzen?
Der Anwendungsbereich des EU AI Act bestimmt sich nach der Anhang-III-Einstufung des Anwendungsfalls, nicht danach, ob Ausgaben kundenseitig sichtbar sind. Ein intern eingesetztes HR-Vorauswahlsystem zur Bewerbervorauswahl ist ein System nach Anhang III, Nr. 4. Interner Einsatz schließt die Pflichten nach Art. 26 nicht aus.
F: Wie lange müssen Betreiber automatisch erzeugte Protokolle nach Art. 26(5) aufbewahren?
Die Mindestaufbewahrungsfrist beträgt sechs Monate ab dem Zeitpunkt der Erzeugung, soweit der Betreiber die Protokoll-Infrastruktur kontrolliert. Nationales Recht oder bereichsspezifische Regulierung — einschließlich DORA für Finanzunternehmen und MaRisk AT 9 für deutsche Banken — kann längere Fristen vorschreiben. Die anwendbare Frist muss in der Protokollaufbewahrungsrichtlinie des Betreibers dokumentiert sein.
F: Kann ein Betreiber die Gebrauchsanweisung des Anbieters als eigene FRIA heranziehen?
Nein. Die FRIA ist ein betreiberspezifisches Dokument. Sie muss die Grundrechtsfolgen des konkreten Einsatzes bewerten — die konkret betroffene Bevölkerungsgruppe, den konkreten Betriebskontext und die konkret verfügbaren Minderungsmaßnahmen des Betreibers. Die Gebrauchsanweisung des Anbieters informiert die FRIA, kann sie aber nicht ersetzen. Eine fehlende FRIA übersteht keine Aufsichtsprüfung.
F: Gilt Art. 26(8) für alle KI-Systeme oder nur für Hochrisiko-Systeme?
Artikel 26(8) gilt für Betreiber von Hochrisiko-KI-Systemen, die Beschäftigte betreffen — beispielsweise Systeme, die für Personalauswahl, Leistungsbewertung, Aufgabenzuweisung oder Arbeitsplatzüberwachung eingesetzt werden. Die Pflicht ist abzustimmen mit den anwendbaren nationalen Mitbestimmungs- und Unterrichtungsanforderungen.
F: Wie verhält sich Art. 26 zu DSGVO Art. 22 bei automatisierten Kreditentscheidungen?
Beide gelten parallel. DSGVO Art. 22 gewährt betroffenen Personen das Recht, nicht ausschließlich automatisierten Entscheidungen mit erheblichen Auswirkungen unterworfen zu werden, und verlangt auf Anfrage eine menschliche Überprüfung. Art. 26(2) EU AI Act verpflichtet den Betreiber unabhängig davon, dem System eine geschulte menschliche Aufsicht zuzuweisen. Beide Anforderungen müssen im Governance-Design jedes automatisierten Kreditentscheidungssystems adressiert werden.
F: Wer setzt Art. 26-Pflichten gegenüber Betreibern in Deutschland durch?
Der EU AI Act verpflichtet die Mitgliedstaaten, nationale Marktüberwachungsbehörden zu benennen. Für Finanzdienstleister in Deutschland ist BaFin die voraussichtlich zuständige primäre Aufsichtsbehörde. BfDI und Landesdatenschutzbehörden behalten parallele Zuständigkeit für die Verarbeitung personenbezogener Daten. Durchsetzungsfristen richten sich nach den Übergangsbestimmungen der Verordnung (EU) 2024/1689; die Pflichten für Hochrisiko-KI-Systeme nach Anhang III gelten ab dem 2. August 2026.
F: Was bedeutet „Aussetzen" konkret nach Art. 26(4) und Art. 26(7)?
Aussetzen bedeutet die Einstellung des operativen Einsatzes des Systems für den jeweiligen Entscheidungszweck — nicht lediglich die Unterbrechung der automatischen Ausgabe-Lieferung. Der Betreiber muss die Aussetzungsentscheidung, den Grund, das Datum und den alternativ eingesetzten Prozess dokumentieren. Art. 26(7) fügt die Pflicht hinzu, den Anbieter schriftlich zu unterrichten. Beide Schritte sollten in den Vorfalls- und Geschäftskontinuitätsverfahren des Betreibers vor der Inbetriebnahme kodifiziert sein.
Ihre Art. 26-Compliance-Position prüfen
EKM Global Consulting GmbH (Baden-Baden) unterstützt Banken, Versicherer, Vermögensverwalter und Gesundheitseinrichtungen in der DACH-Region bei strukturierten EU AI Act-Betreiberprüfungen, FRIA-Entwicklung und Spezifikationen der menschlichen Aufsicht nach Artikel 14.
Quick Scan — Führen Sie eine strukturierte Selbstbewertung unter app.ekmgc.de durch, um zu ermitteln, welche Pflichten nach Art. 26 auf Ihre aktuellen KI-Deployments zutreffen.
Beratung — Für eine praxisorientierte Überprüfung Ihrer Betreiberpflichten über Anhang-III-Anwendungsfälle hinweg besuchen Sie ekmgc.de/eu-ai-act.html.
Quellen und primäre Nachweise
- Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates über künstliche Intelligenz (EU AI Act) — EUR-Lex: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=OJ:L_202401689
- Art. 3 (Begriffsbestimmungen), Art. 13 (Transparenz), Art. 14 (Menschliche Aufsicht), Art. 26 (Betreiberpflichten), Art. 27 (FRIA), Art. 29a (FRIA für Kredit- und Versicherungsgeschäft), Anhang III (Hochrisiko-KI-Systeme) — Verordnung (EU) 2024/1689
- Verordnung (EU) 2022/2554 zur digitalen Betriebsstabilität des Finanzsektors (DORA) — EUR-Lex: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32022R2554
- Richtlinie (EU) 2022/2555 über Maßnahmen für ein hohes gemeinsames Cybersicherheitsniveau (NIS2) — EUR-Lex: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32022L2555
- Verordnung (EU) 2016/679 (DSGVO), Art. 22 — EUR-Lex: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32016R0679
- BaFin Mindestanforderungen an das Risikomanagement (MaRisk) — Rundschreiben 05/2023 (BA): https://www.bafin.de/SharedDocs/Veroeffentlichungen/DE/Rundschreiben/2023/rs_2305_ba_MaRisk.html
- EU-Büro für künstliche Intelligenz — Leitlinien und regulatorische Ressourcen: https://digital-strategy.ec.europa.eu/de/policies/european-approach-artificial-intelligence
- Betriebsverfassungsgesetz (BetrVG) — Bundesministerium der Justiz: https://www.gesetze-im-internet.de/betrvg/
- Arbeitsverfassungsgesetz (ArbVG) — Rechtsinformationssystem des Bundes (Österreich): https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Gesetzesnummer=10008904