Warum Erklärbarkeit im EU AI Act zentral ist
Erklärbarkeit ist aus mehreren EU AI Act-Artikeln abzuleiten: Art. 13 (Transparenz und Bereitstellung von Informationen für Betreiber), Art. 14 (menschliche Aufsicht, die nur bei verständlichen Ausgaben möglich ist), Art. 26 Abs. 1 (Betreiber müssen geeignete Anweisungen für die Nutzung haben). Dazu kommt: Art. 22 DSGVO (Recht auf Erklärung bei automatisierten Entscheidungen) ergänzt die EU AI Act-Anforderungen. Effektive Erklärbarkeit ist auch eine Voraussetzung für sinnvolle menschliche Aufsicht.
Methoden der Erklärbarkeit: LIME, SHAP und Co.
Führende XAI-Methoden: SHAP (SHapley Additive exPlanations): erklärt Vorhersagen als Summe von Feature-Beiträgen, breite Anwendbarkeit. LIME (Local Interpretable Model-Agnostic Explanations): erklärt einzelne Vorhersagen durch lokale Approximation. Attention Mechanisms: bei Transformer-Modellen zeigen Attention-Gewichte, worauf das Modell fokussiert. Counterfactual Explanations: „Was müsste anders sein, damit eine andere Entscheidung gefällt würde?" Intrinsisch interpretierbare Modelle: Entscheidungsbäume, lineare Regression – verständlich by design. Die Wahl der Methode hängt vom Modelltyp und Anwendungskontext ab.
Erklärbarkeit für verschiedene Zielgruppen
Verschiedene Stakeholder benötigen unterschiedliche Erklärungsformen: Betroffene Personen: einfache, verständliche Erklärungen ohne technischen Jargon (z.B. „Ihr Kredit wurde abgelehnt, weil Ihr Einkommen im Verhältnis zur gewünschten Kredithöhe zu niedrig ist"). Interne Prüfer und Aufsichtspersonen: detailliertere technische Erklärungen mit Feature-Importance und Schwellenwerten. Regulatoren und Behörden: vollständige technische Dokumentation des Erklärbarkeitsansatzes, Validierungsergebnisse. Entwicklungsteams: granulare Debugging-Informationen für Modellverbesserungen.
Grenzen der Erklärbarkeit
Erklärbarkeit hat praktische Grenzen, die ehrlich kommuniziert werden sollten: Post-hoc-Erklärungen (SHAP, LIME) approximieren das Modellverhalten und sind nicht exakt. Bei großen Sprachmodellen (LLMs) ist echte Erklärbarkeit noch weitgehend ungelöst. Es gibt einen Accuracy-Explainability Trade-off: komplexere Modelle sind oft genauer, aber schwerer zu erklären. Der EU AI Act verlangt „angemessene" Erklärbarkeit – nicht vollständige Transparenz des Modells in jedem Fall.
AI Act Compliance Tool
Ist Ihr KI-System EU AI Act-konform?
Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.
Jetzt Risiko prüfen →