KI-Tools für automatisierte Entscheidungen: Compliance-Anforderungen

Kreditscoringmodelle, Bewerbungsranking, Kundenpriorisierung – KI-Tools für automatisierte Entscheidungen sind besonders reguliert. Sie fallen potenziell unter Hochrisiko-Anforderungen des EU AI Act und unterliegen gleichzeitig Art. 22 DSGVO. Dieser Leitfaden erklärt die Anforderungen.

Was sind automatisierte Entscheidungen im KI-Kontext?

Automatisierte Entscheidungen (Automated Decision Making, ADM) sind Entscheidungen, die ohne wesentliche menschliche Beteiligung durch ein KI-System getroffen werden. Typische Beispiele: Kreditwürdigkeitsbewertung durch Algorithmen, automatisches Ranking von Bewerbern, Preisdifferenzierung basierend auf Nutzerprofilen, automatische Kündigungserkennung im Kundenservice, algorithmische Jobvermittlung. Diese Systeme sind besonders reguliert, weil sie erhebliche Auswirkungen auf Einzelpersonen haben können.

EU AI Act: Hochrisiko-Einstufung

Viele ADM-Systeme fallen direkt in Anhang III EU AI Act und sind damit Hochrisiko-Systeme: KI für Kreditwürdigkeitsbewertung (Anhang III Nr. 5b), KI für Beschäftigungsentscheidungen wie Recruitment und Personalmanagement (Anhang III Nr. 4), KI für Bildungszugang und Beurteilung (Anhang III Nr. 3), KI in der Strafverfolgung (Anhang III Nr. 6). Diese Systeme benötigen vollständige technische Dokumentation, Konformitätsbewertung, EU-Datenbankregistrierung und robuste menschliche Aufsichtsmechanismen.

DSGVO Art. 22: Das Recht auf menschliche Überprüfung

Parallel zum EU AI Act gilt Art. 22 DSGVO: Betroffene haben das Recht, nicht ausschließlich einer automatisierten Entscheidung unterworfen zu werden, die sie erheblich beeinträchtigt. Ausnahmen sind möglich, aber betroffene Personen müssen über das Recht auf menschliche Überprüfung informiert werden. Die Zusammenschau von EU AI Act und DSGVO Art. 22 ergibt: Hochrisiko-KI-Systeme für ADM müssen menschliche Aufsicht (EU AI Act Art. 14) sicherstellen UND das Recht auf menschliche Überprüfung nach DSGVO gewährleisten. Beides muss in der Datenschutzerklärung dokumentiert werden.

Explainability: Erklärbarkeit von KI-Entscheidungen

Art. 13 EU AI Act und Art. 22 Abs. 2 lit. b DSGVO verlangen Erklärbarkeit automatisierter Entscheidungen. Praktisch bedeutet das: Betroffene müssen verstehen können, warum eine KI-Entscheidung so ausgefallen ist. Implementieren Sie Explainability-Methoden: SHAP-Werte, LIME, oder regelbasierte Erklärungen. Dokumentieren Sie, welche Faktoren wie stark in eine Entscheidung eingeflossen sind. Testen Sie regelmäßig auf unerwünschte Diskriminierung und Bias in Ihren ADM-Systemen.

Checkliste: ADM-Systeme EU AI Act-konform gestalten

Praktische Checkliste für automatisierte Entscheidungssysteme: ☐ Risikoklassifikation durchgeführt und dokumentiert, ☐ Technische Dokumentation erstellt (Art. 11), ☐ Risikomanagementsystem implementiert (Art. 9), ☐ Datenqualitätsprüfung der Trainingsdaten (Art. 10), ☐ Logging-System für alle Entscheidungen (Art. 12), ☐ Menschliche Aufsichtsmechanismen definiert (Art. 14), ☐ Betroffenenrechte implementiert (DSGVO Art. 22), ☐ Erklärbarkeit sichergestellt, ☐ Bias-Tests durchgeführt, ☐ Mitarbeitende geschult (Art. 4). Nutzen Sie ai-risk-check.com für eine strukturierte Bewertung.

Ist Ihr KI-System EU AI Act-konform?

Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.

Jetzt Risiko prüfen →