Warum HR-KI als Hochrisiko gilt
Anhang III Nr. 4 EU AI Act listet explizit KI-Systeme, die für die Rekrutierung oder Auswahl natürlicher Personen bestimmt sind, insbesondere zur Schaltung gezielter Stellenanzeigen, zur Analyse und Filterung von Bewerbungen sowie zur Bewertung von Kandidaten im Vorstellungsgespräch. Diese Einstufung als Hochrisiko ist gerechtfertigt: Fehlerhafte oder diskriminierende HR-KI kann Menschen den Zugang zu Arbeit verwehren und betrifft damit grundlegende wirtschaftliche Rechte.
Pflichten für Unternehmen, die HR-KI einsetzen
Als Betreiber von Hochrisiko-HR-KI müssen Unternehmen: das System nur gemäß Anbieter-Anweisungen einsetzen, ausreichend qualifiziertes HR-Personal einsetzen, das Systemverhalten überwachen, Bewerber über den Einsatz automatisierter Entscheidungen informieren (Art. 22 DSGVO: Recht auf menschliche Überprüfung), keine abschließenden Entscheidungen rein auf Basis der KI treffen, Logging und Monitoring des Systems sicherstellen. Der finale Einstellungsentscheid muss immer von einem Menschen getroffen werden.
Bias-Risiken in HR-KI erkennen und reduzieren
HR-KI birgt erhebliche Diskriminierungsrisiken: Historische Daten bilden vergangene Diskriminierungen ab, Named-Entity-Erkennung kann Namen diskriminieren (Ethnic Name Bias), Sprach- und Formulierungsunterschiede benachteiligen bestimmte Gruppen, Foto-basierte Bewerbungsanalyse birgt Rassismus-Risiken. Gegenmaßnahmen: regelmäßige Bias-Audits durch unabhängige Dritte, Entfernung geschützter Merkmale aus Trainingsdaten, Diverse Testdatensätze, menschliche Überprüfung aller Ablehnungsentscheidungen.
Anforderungen an HR-KI-Anbieter
Unternehmen sollten von HR-KI-Anbietern verlangen: CE-Kennzeichnung und Registrierung in der EU-KI-Datenbank, vollständige technische Dokumentation, regelmäßige Bias-Berichte und Fairness-Audits, klare Nutzungsanweisungen, Informationen über Trainingsdaten und Datenherkunft, Audit-Rechte für den Betreiber, vertragliche EU AI Act-Konformitätszusicherung. Anbieter, die diese Informationen nicht bereitstellen wollen, sollten nicht eingesetzt werden.
Sonderfall: KI-gestützte Videointerviews
Besonders kritisch: KI-Systeme, die Mimik, Tonfall oder Gestik in Videointerviews analysieren, fallen unter Anhang III Nr. 4 und zusätzlich möglicherweise unter die Emotionserkennungsregeln (Art. 50 Abs. 3). Solche Systeme sind in der Praxis schwer EU AI Act-konform zu betreiben und sollten sehr kritisch geprüft werden. In einigen EU-Ländern gibt es parallele arbeitsrechtliche Einschränkungen. In Deutschland erfordert der Einsatz solcher Systeme typischerweise eine Betriebsvereinbarung.
AI Act Compliance Tool
Ist Ihr KI-System EU AI Act-konform?
Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.
Jetzt Risiko prüfen →