Was bedeutet menschliche Aufsicht konkret?
Art. 14 Abs. 1 definiert das Ziel: Hochrisiko-KI-Systeme müssen so konzipiert sein, dass natürliche Personen sie wirksam überwachen können. Das bedeutet: Menschen müssen die Möglichkeit haben, das System vollständig zu verstehen, Abweichungen und Fehler zu erkennen, das System zu übersteuern oder abzuschalten. Menschliche Aufsicht ist keine symbolische Rubber-Stamp-Funktion: Die aufsichtsführende Person muss Zeit, Kompetenz und Autorität haben, KI-Outputs tatsächlich zu prüfen und ggf. abzulehnen. Ein menschlicher Bearbeiter, der unter Zeitdruck 100 KI-Entscheidungen pro Stunde "bestätigt", ohne inhaltliche Prüfung, erfüllt diese Anforderung nicht.
Human-in-the-Loop vs. Human-on-the-Loop
In der Praxis gibt es verschiedene Modelle menschlicher Aufsicht. Human-in-the-loop (HITL): Jede KI-Entscheidung muss vor Umsetzung von einem Menschen bestätigt werden. Höchster Aufsichtsgrad, hoher operativer Aufwand. Human-on-the-loop (HOTL): KI handelt automatisch, aber ein Mensch kann jederzeit eingreifen und übersteuern. Mensch prüft stichprobenartig oder anlassbezogen. Human-in-command: Mensch definiert Rahmen und kann das System jederzeit abschalten. Welches Modell für welches System geeignet ist, hängt vom Risikoprofil ab. Für Hochrisiko-KI mit direkter Auswirkung auf Einzelpersonen ist HITL meist erforderlich.
Technische Voraussetzungen für menschliche Aufsicht
Art. 14 Abs. 3 definiert technische Anforderungen an das System: Das System muss erkennbar und verständliche Outputs produzieren (keine Black-Box-Outputs), Hinweise auf Unsicherheiten oder Konfidenzwerte müssen sichtbar sein, das System muss eine Abbruchfunktion haben, der Mensch muss die Entscheidungsfaktoren einsehen können. Implementierungsmaßnahmen: Konfidenz-Scores anzeigen, Erklärungen zu KI-Outputs bereitstellen (Explainability), klare Override-Funktion für Menschen einbauen, Audit-Log für menschliche Eingriffe führen.
Schulung der aufsichtsführenden Personen
Art. 14 Abs. 4 schreibt vor: Aufsichtsführende Personen müssen kompetent sein. Art. 4 EU AI Act (KI-Kompetenz) ergänzt dies: Alle Personen, die mit Hochrisiko-KI-Systemen arbeiten, müssen über ausreichendes KI-Wissen verfügen. Schulungsinhalte für Aufsichtspersonen: Wie funktioniert das spezifische KI-System (Grundlagen), was sind typische Fehlerquellen und Schwächen, wie erkenne ich fehlerhafte oder verdächtige Outputs, wann und wie greife ich ein, wie dokumentiere ich Eingriffe und Incidents. Schulungsnachweise gehören zur Dokumentation nach Art. 17 (Qualitätsmanagementsystem).
Menschliche Aufsicht implementieren: Praxisleitfaden
Konkrete Implementierungsschritte: (1) Aufsichtsmodell für das spezifische KI-System festlegen (HITL, HOTL, HIC), (2) Aufsichtspersonen benennen und Verantwortlichkeiten klären, (3) Schulungsprogramm entwickeln und durchführen, (4) Technische Aufsichtswerkzeuge implementieren (Konfidenz-Anzeige, Override-Button, Audit-Log), (5) Prozess für Vorfallmeldungen einrichten (wenn KI-Output fehlerhaft war), (6) Regelmäßige Reviews der Aufsichtseffektivität, (7) Dokumentation der Aufsichtsstruktur in technischer Dokumentation und IFU. Testen Sie, ob Ihre Aufsichtsstruktur tatsächlich funktioniert – führen Sie periodische Übungen mit bewusst fehlerhaften KI-Outputs durch.
AI Act Compliance Tool
Ist Ihr KI-System EU AI Act-konform?
Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.
Jetzt Risiko prüfen →