Es ist Donnerstag, 31. Juli 2025. Ihr Copilot schreibt Pflegeprotokolle, der Chatbot beantwortet Bewerber­fragen, ein Sprachtool übersetzt Fachtexte in leichte Sprache. Plötzlich erscheint ein Pop-up:

„Ab morgen gelten neue EU-Pflichten für KI – Transparenz­nachweis erforderlich.“

Wenn Sie bis hierher gelesen haben, bleibt der morgige Freitag ein ruhiger Tag. Denn Sie wissen, welche Unterlagen die Aufsicht verlangt und wie Sie Vorfälle melden. Im Folgenden lesen Sie, welche Regeln ab 2. August 2025 neu sind, welche Modelle besonders im Fokus stehen und welche Schritte Sie jetzt erledigen.

Der EU AI Act ist seit 2024 veröffentlicht, aber wichtige Regelungen starten abgestuft. 2. August 2025 ist der erste harte Meilenstein:

  1. Das EU-AI-Office und die nationalen Behörden starten ihre Markt­überwachung.
  2. Foundation-Modelle (im Gesetz: GPAI = General-Purpose AI) unterliegen sofort neuen Pflichten.
  3. Sehr große Foundation-Modelle mit „systemischem Risiko“ brauchen zusätzliche Tests und Risiko­berichte.

Die Aufsicht greift entlang der Lieferkette: Nutzen Sie einen Dienst, der auf einem betroffenen Modell basiert, tragen auch Sie Verantwortung für Transparenz und Meldungen.

1. Transparenz­paket

Model Card
Ein zweiseitiges Steckbrief-Dokument, das Zweck, Stärken, Schwächen, Trainings­daten­quellen und empfohlene Schutz­maßnahmen beschreibt. Denken Sie an den „Beipack­zettel“ eines Medikaments – nur für KI.

EU-Register
Jedes Foundation-Modell wird einmalig in eine öffentliche Datenbank des EU-AI-Office eingetragen. Dort stehen Name, Version, Trainings­aufwand und geplante Updates. So sieht die Aufsicht auf einen Blick, welche Modelle im europäischen Markt unterwegs sind.

Eine der größten Herausforderungen im Alltag sozialer Einrichtungen ist der Der Act zieht eine Linie bei Modellen, die beim Training extrem viel Rechen­leistung verbrauchen (≈ 10²⁵ FLOPs). Darunter fallen nur echte Schwergewichte:

Beispiel-ModelleTypische NutzungSystemisches Risiko?*
GPT-4 (OpenAI)Chatbots, CopilotenJa
Gemini Ultra (Google)Multimodale AssistentenJa
Claude 3 Opus (Anthropic)Text-Analyse, Content-ErstellungWahrscheinlich
Llama 2 / Mistral (Open Source)Self-hosted KI-DiensteNein, deutlich kleiner

* Offiziell entscheidet der Anbieter, die Behörde prüft. Für Betreiber gilt: Liegt der Anbieter über der Schwelle, brauchen Sie die zusätzlichen Nachweise (Tests, Risiko­berichte).

Ein schwerwiegender Vorfall (z. B. falsche Medikations­empfehlung) muss innerhalb von 15 Tagen an die nationale Behörde gemeldet werden. Zusätzlich schreibt das Gesetz einen Post-Market Monitoring-Plan vor: Wie fangen Sie Feedback ein, wer bewertet Risiken, wie stoppen Sie das Modell im Notfall?

Alle, die mit dem Modell arbeiten, müssen dessen Chancen und Grenzen verstehen. Das prüft die Aufsicht ab August erstmals. Ein kurzer Online-Kurs mit Test genügt Hauptsache, er ist dokumentiert.

Die EU stellt eine Blaupause bereit. Anbieter, die diese Vorgaben freiwillig anwenden, „beweisen“ damit ihre Sorgfalt und reduzieren Prüf­aufwand. Für Betreiber lohnt es sich, genau diesen Nachweis vom Dienst­leister einzufordern.

  1. Modell-Inventur
    Liste aller KI-Dienste inkl. Modell, Version, Update­rhythmus, Einsatz­zweck.
  2. Risikoklassifizierung
    Prüfen, ob das Modell als systemisch gilt oder in einem Hochrisiko-Bereich (z. B. Diagnose, HR-Auswahl) eingesetzt wird
  3. Dokumentations-Kit
    • Model Card ausfüllen oder beim Anbieter anfordern
    • Eintrag ins EU-Register veranlassen
    • Konformitäts­erklärung nach Anhang XI (AI Act) beilegen
  4. KI-Richtlinie erstellen
    Rollen, Freigabe­prozesse, Audit-Log / Prompt-Log, Schnittstelle zum IT-Sicherheits­prozess. Verhindert Schatten-IT.
  5. Schulung & Literacy-Nachweis
    Kurze E-Learning-Einheit + jährliches Quiz; Teilnahme­listen aufbewahren.
  6. Incident-Response-Plan festlegen
    Wer bewertet Vorfälle? Wer meldet? Wie deaktivieren Sie das Modell? Vorlagen für ein 15-Tage-Meldeformular bereithalten.

Wir nutzen einen externen Chatbot. Müssen wir trotzdem etwas tun?
Ja. Fordern Sie die Model Card vom Anbieter an, dokumentieren Sie Ihre Schulung und richten Sie einen Melde­weg ein. Verantwortung teilt sich entlang der Lieferkette.

Gibt es Bußgelder, wenn wir den Transparenz-Nachweis zu spät liefern?
Bei systemischen Modellen ja, Bußgelder können bis 7 % des Umsatzes des Anbieters betragen. Für Betreiber folgt meist eine Auflage. Je früher Dokumente vorliegen, desto geringer das Risiko.

Reicht eine Datenschutzerklärung auf der Website als Betroffenen­info?
Nein. Training oder Fine-Tuning eines Modells ist eine neue Verarbeitung. Passen Sie die Information oder das Verarbeitungs­verzeichnis an.

Der EU AI Act macht KI-Transparenz zur Pflicht. Ab 2. August 2025 muss jedes Foundation-Modell offen­gelegt, Risiken bewertet, Vorfälle gemeldet und das Team geschult sein. Mit einer Modell-Inventur, einer schlanken KI-Richtlinie, passender Schulung und einem Incident-Plan erledigen Sie die wichtigsten Aufgaben rechtzeitig und verwandeln KI von einem Risiko in einen handfesten Vertrauens­vorteil für Ihre Organisation.

BegriffKurz erklärt
Foundation-ModellGroßes, vortrainiertes KI-Netz, das viele Aufgaben lösen kann.
GPAIGeneral-Purpose AI – Oberbegriff im Gesetz.
FLOPs„Floating Point Operations“ beim Training – Maß für Rechen­aufwand.
Systemisches RisikoKategorie für extrem große Modelle; es gelten strengere Prüf- und Meldepflichten.
Model CardStandard­formular mit Zweck, Daten, Performance und Limits eines Modells.
EU-RegisterÖffentliche Datenbank des EU-AI-Office für alle Foundation-Modelle.
Post-Market MonitoringLaufende Beobachtung eines Modells nach der Einführung, inkl. Reporting.
AI-LiteracyNachweis, dass Mitarbeitende Chancen und Risiken von KI verstehen.
DPIADatenschutz-Folgenabschätzung nach Art. 35 DSGVO.
ISMSInformations-sicherheits­management­system, z. B. nach ISO 27001.

Als unabhängige Beratung begleiten wir soziale Einrichtungen bei der Auswahl, Einführung und Optimierung von Software sowie KI-Lösungen. Dabei stehen nicht nur technische Kriterien im Fokus, sondern vor allem die Machbarkeit im Alltag.

Unser Ziel ist es, tragfähige Lösungen zu schaffen, die nachhaltig funktionieren. Standardsoftware ist dabei kein Kompromiss, sondern ein strategisches Werkzeug, um Strukturen zu stärken und den Alltag zu vereinfachen.

Quellen & Experten

EU AI Act: first regulation on artificial intelligence | Topics | European Parliament

EU Artificial Intelligence Act | Up-to-date developments and analyses of the EU AI Act

KI-Gesetz | Gestaltung der digitalen Zukunft Europas

EU-KI-Verordnung datenschutzkonform umsetzen

IHK Spezial Webinar: KI-Nutzung mit Copilot und Tipps für die erfolgreiche Einführung