GPAI-Modelle mit systemischem Risiko: Zusätzliche Pflichten

Nicht alle GPAI-Modelle werden gleich behandelt. Modelle mit besonders hoher Rechenkapazität gelten als systemisch riskant und unterliegen strengeren Anforderungen.

Wann liegt systemisches Risiko vor?

Ein GPAI-Modell gilt nach dem EU AI Act als systemisch riskant, wenn:

  • Die kumulierte Rechenleistung für das Training mehr als 10^25 FLOP (Floating Point Operations) beträgt – das entspricht etwa dem Stand der leistungsstärksten Large Language Models (GPT-4-Niveau)
  • Oder wenn die Europäische Kommission auf Basis anderer Indikatoren entscheidet, dass ein Modell systemische Risiken aufweist

Anbieter müssen die Kommission innerhalb von 2 Wochen benachrichtigen, wenn ihr Modell diese Schwelle erreicht.

Zusätzliche Pflichten für systemische GPAI-Modelle

Neben den allgemeinen GPAI-Pflichten müssen Anbieter systemischer Modelle zusätzlich:

  • Modellevaluierungen durchführen – insbesondere adversariales Testen
  • Systemische Risiken identifizieren und mindern
  • Schwerwiegende Vorfälle melden an das AI Office und nationale Behörden
  • Cybersicherheitsschutz auf angemessenem Niveau gewährleisten

Ist Ihr KI-System EU AI Act-konform?

Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.

Jetzt Risiko prüfen →