Erklärbarkeit von KI: Explainable AI und EU AI Act

Erklärbarkeit (Explainability) ist eine der wichtigsten Anforderungen des EU AI Act. Wenn KI-Systeme Entscheidungen treffen, die Menschen betreffen, müssen diese Entscheidungen nachvollziehbar sein – für Aufsichtsbehörden, für Betroffene und für interne Kontrollinstanzen. Explainable AI (XAI) ist keine Luxus, sondern eine gesetzliche Pflicht.

Warum Erklärbarkeit im EU AI Act zentral ist

Erklärbarkeit ist aus mehreren EU AI Act-Artikeln abzuleiten: Art. 13 (Transparenz und Bereitstellung von Informationen für Betreiber), Art. 14 (menschliche Aufsicht, die nur bei verständlichen Ausgaben möglich ist), Art. 26 Abs. 1 (Betreiber müssen geeignete Anweisungen für die Nutzung haben). Dazu kommt: Art. 22 DSGVO (Recht auf Erklärung bei automatisierten Entscheidungen) ergänzt die EU AI Act-Anforderungen. Effektive Erklärbarkeit ist auch eine Voraussetzung für sinnvolle menschliche Aufsicht.

Methoden der Erklärbarkeit: LIME, SHAP und Co.

Führende XAI-Methoden: SHAP (SHapley Additive exPlanations): erklärt Vorhersagen als Summe von Feature-Beiträgen, breite Anwendbarkeit. LIME (Local Interpretable Model-Agnostic Explanations): erklärt einzelne Vorhersagen durch lokale Approximation. Attention Mechanisms: bei Transformer-Modellen zeigen Attention-Gewichte, worauf das Modell fokussiert. Counterfactual Explanations: „Was müsste anders sein, damit eine andere Entscheidung gefällt würde?" Intrinsisch interpretierbare Modelle: Entscheidungsbäume, lineare Regression – verständlich by design. Die Wahl der Methode hängt vom Modelltyp und Anwendungskontext ab.

Erklärbarkeit für verschiedene Zielgruppen

Verschiedene Stakeholder benötigen unterschiedliche Erklärungsformen: Betroffene Personen: einfache, verständliche Erklärungen ohne technischen Jargon (z.B. „Ihr Kredit wurde abgelehnt, weil Ihr Einkommen im Verhältnis zur gewünschten Kredithöhe zu niedrig ist"). Interne Prüfer und Aufsichtspersonen: detailliertere technische Erklärungen mit Feature-Importance und Schwellenwerten. Regulatoren und Behörden: vollständige technische Dokumentation des Erklärbarkeitsansatzes, Validierungsergebnisse. Entwicklungsteams: granulare Debugging-Informationen für Modellverbesserungen.

Grenzen der Erklärbarkeit

Erklärbarkeit hat praktische Grenzen, die ehrlich kommuniziert werden sollten: Post-hoc-Erklärungen (SHAP, LIME) approximieren das Modellverhalten und sind nicht exakt. Bei großen Sprachmodellen (LLMs) ist echte Erklärbarkeit noch weitgehend ungelöst. Es gibt einen Accuracy-Explainability Trade-off: komplexere Modelle sind oft genauer, aber schwerer zu erklären. Der EU AI Act verlangt „angemessene" Erklärbarkeit – nicht vollständige Transparenz des Modells in jedem Fall.

Ist Ihr KI-System EU AI Act-konform?

Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.

Jetzt Risiko prüfen →