Menschliche Aufsicht über Hochrisiko-KI-Systeme (Art. 14)

Der EU AI Act fordert, dass Hochrisiko-KI-Systeme so gestaltet sein müssen, dass eine wirksame menschliche Überwachung stets möglich ist. Was das konkret bedeutet.

Anforderungen an die menschliche Aufsicht

Artikel 14 verlangt, dass Hochrisiko-KI-Systeme mit geeigneten Werkzeugen ausgestattet sind, die eine wirksame menschliche Aufsicht ermöglichen. Im Einzelnen:

  • Das System muss von den verantwortlichen Personen vollständig verstanden werden können
  • Anomalien, Dysfunktionen und unerwartete Leistungsausfälle müssen erkannt werden können
  • Das System muss jederzeit überbrückt oder gestoppt werden können
  • Outputs müssen interpretierbar und überprüfbar sein
  • Vulnerable Gruppen müssen identifiziert und besonders berücksichtigt werden können

"Human in the Loop", "Human on the Loop" und "Human in Command"

Der EU AI Act unterscheidet implizit zwischen verschiedenen Aufsichtsmodellen:

Human in the Loop: Ein Mensch ist aktiv in jeden Entscheidungsprozess eingebunden. Dieser Ansatz ist bei kritischen Entscheidungen (z. B. Kreditzulassung, Asylantragsbearbeitung) sinnvoll.

Human on the Loop: Das System trifft Entscheidungen automatisch, aber ein Mensch überwacht den Prozess und kann eingreifen. Geeignet für Systeme mit hohem Volumen bei geringerem Einzelrisiko.

Human in Command: Ein Mensch kann das System jederzeit abstellen oder übersteuern. Dies ist die Minimalanforderung für alle Hochrisiko-KI-Systeme.

Ist Ihr KI-System EU AI Act-konform?

Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.

Jetzt Risiko prüfen →