Wann liegt systemisches Risiko vor?
Ein GPAI-Modell gilt nach dem EU AI Act als systemisch riskant, wenn:
- Die kumulierte Rechenleistung für das Training mehr als 10^25 FLOP (Floating Point Operations) beträgt – das entspricht etwa dem Stand der leistungsstärksten Large Language Models (GPT-4-Niveau)
- Oder wenn die Europäische Kommission auf Basis anderer Indikatoren entscheidet, dass ein Modell systemische Risiken aufweist
Anbieter müssen die Kommission innerhalb von 2 Wochen benachrichtigen, wenn ihr Modell diese Schwelle erreicht.
Zusätzliche Pflichten für systemische GPAI-Modelle
Neben den allgemeinen GPAI-Pflichten müssen Anbieter systemischer Modelle zusätzlich:
- Modellevaluierungen durchführen – insbesondere adversariales Testen
- Systemische Risiken identifizieren und mindern
- Schwerwiegende Vorfälle melden an das AI Office und nationale Behörden
- Cybersicherheitsschutz auf angemessenem Niveau gewährleisten
AI Act Compliance Tool
Ist Ihr KI-System EU AI Act-konform?
Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.
Jetzt Risiko prüfen →