Welche Bildungs-KI ist Hochrisiko?
Anhang III Nr. 3 EU AI Act listet als Hochrisiko: KI für die Bestimmung des Zugangs oder die Zulassung zu Bildungseinrichtungen, KI für die Beurteilung von Lernenden in Bildungseinrichtungen, KI für die Überprüfung des Prüfungsablaufs (Proctoring-Software), KI für die Beurteilung des angemessenen Bildungsniveaus. Nicht Hochrisiko: Lehr-Tools ohne Bewertungsfunktion, einfache Übungs- und Lernspiele, KI-gestützte Übersetzungstools für Lehrmaterialien, allgemeine administrative KI ohne Auswirkung auf Lernende.
Online-Proctoring: Der kritischste Anwendungsfall
KI-basierte Prüfungsüberwachung (Proctoring) ist einer der sensibelsten Bildungs-KI-Anwendungsfälle. Systeme, die Verhaltensauffälligkeiten, Augentracking oder Gesichtserkennung nutzen, fallen eindeutig unter Hochrisiko. Anforderungen: vollständige Proctoring-System-Dokumentation, Transparenz gegenüber Prüflingen über eingesetzte KI, Möglichkeit menschlicher Überprüfung aller Verdachtsfälle, Datenschutz-Folgenabschätzung. Kritisch: Einige Proctoring-Systeme nutzen biometrische Daten – dies unterliegt zusätzlich Art. 9 DSGVO (Einwilligung oder gesetzliche Grundlage erforderlich). In der Schweiz: Einige Kantone haben Proctoring-KI aus Datenschutzgründen verboten.
Adaptive Lernsysteme und Lernanalyse
Adaptive Lernsysteme (Intelligent Tutoring Systems) passen Lehrinhalte an den individuellen Lernfortschritt an. Sie sind Hochrisiko, wenn sie: individuelle Leistungsbeurteilungen erstellen, die Bildungsempfehlungen beeinflussen, oder den Zugang zu Bildungsressourcen differenzieren. Anforderungen für Betreiber (Schulen/Universitäten): Offenlegung gegenüber Lernenden und Eltern, Möglichkeit zur Überprüfung durch Lehrende, Datenschutz-Folgenabschätzung für Schülerdaten, besonderer Kinderschutz bei Systemen, die von Minderjährigen genutzt werden.
Rechte von Schülerinnen, Schülern und Studierenden
Lernende haben als betroffene Personen besondere Rechte bei KI-Nutzung in Bildungseinrichtungen: Informationsrecht: Welche KI-Systeme werden eingesetzt, zu welchem Zweck? Erklärungsrecht: Warum hat das System diese Bewertung gegeben? Überprüfungsrecht: Forderung nach menschlicher Überprüfung von KI-Entscheidungen. Für Minderjährige: Eltern haben diese Rechte stellvertretend. Schulen müssen diese Rechte aktiv kommunizieren. In Deutschland: Elternbriefe mit KI-Disclosure empfohlen. Datenschutz-Folgenabschätzung bei Schülerdaten besonders wichtig (Art. 8 DSGVO für Minderjährige).
Praxistipps für Bildungseinrichtungen
Konkrete Schritte für Schulen und Universitäten: (1) Inventar aller eingesetzten Bildungs-KI-Tools erstellen, (2) Klassifizierung: Welche sind Hochrisiko? (3) Für Hochrisiko-Tools: Anbieter-Dokumentation anfordern, (4) Transparenzkommunikation an Eltern und Lernende, (5) Datenschutz-Folgenabschätzung für datenintensive Systeme, (6) Lehrende schulen: Wie funktioniert die KI? Wie überprüfe ich ihre Outputs? (7) Prozess für Widersprüche gegen KI-Beurteilungen einrichten, (8) Datenschutzbeauftragten einbinden. Nutzen Sie ai-risk-check.com für eine strukturierte Bewertung Ihrer Bildungs-KI-Tools.
AI Act Compliance Tool
Ist Ihr KI-System EU AI Act-konform?
Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.
Jetzt Risiko prüfen →