Der EU AI Act ist das weltweit erste gründliche KI-Gesetz — und er betrifft Schweizer Unternehmen stärker, als viele annehmen. Ab dem 2. August 2026 gelten die vollständigen Anforderungen für Hochrisiko-KI-Systeme, einschliesslich der expliziten Pflicht zum adversarialen Testing (Red Teaming). Schweizer Unternehmen, die KI-Systeme in der EU anbieten, EU-Kunden bedienen oder in EU-Lieferketten eingebunden sind, müssen diese Anforderungen erfüllen — bei Nichteinhaltung drohen Strafen von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes.
Nachfolgend analysieren wir den EU AI Act aus Schweizer Perspektive, identifiziert betroffene Unternehmen und zeigt auf, welche konkreten Massnahmen erforderlich sind.
Was ist der EU AI Act?
Der EU AI Act (Verordnung (EU) 2024/1689) ist eine europäische Verordnung, die den Einsatz von künstlicher Intelligenz in der EU reguliert. Er wurde am 13. Juni 2024 vom Europäischen Parlament verabschiedet und tritt stufenweise in Kraft:
Zeitplan der Inkraftsetzung
| Datum | Was tritt in Kraft |
|---|---|
| 1. August 2024 | Verordnung veröffentlicht |
| 2. Februar 2025 | Verbot unannehmbarer KI-Praktiken |
| 2. August 2025 | Anforderungen für KI-Modelle mit allgemeinem Verwendungszweck (GPAI) |
| 2. August 2026 | Vollständige Geltung: Anforderungen für Hochrisiko-KI-Systeme |
| 2. August 2027 | Anforderungen für KI-Systeme in regulierten Produkten (Anhang I) |
Risikobasierter Ansatz
Der EU AI Act klassifiziert KI-Systeme in vier Risikokategorien:
1. Unannehmbares Risiko (verboten)
Bestimmte KI-Praktiken sind vollständig verboten:
- Soziale Bewertungssysteme (Social Scoring) durch öffentliche Behörden
- Biometrische Echtzeit-Fernidentifizierung in öffentlichen Räumen (mit Ausnahmen)
- KI-Systeme, die Verhalten manipulieren und dadurch Schaden verursachen
- KI, die Schwächen von Personen (Alter, Behinderung) ausnutzt
- Erstellung von Gesichtserkennungsdatenbanken durch Massenüberwachung
2. Hohes Risiko
KI-Systeme in folgenden Bereichen gelten als «Hochrisiko» und unterliegen strengen Anforderungen:
- Biometrische Identifizierung und Kategorisierung
- Kritische Infrastruktur (Energie, Verkehr, Wasser)
- Bildung und berufliche Ausbildung (Zugang, Bewertung)
- Beschäftigung und Personalmanagement
- Zugang zu wesentlichen Dienstleistungen (Kredit, Versicherung)
- Strafverfolgung
- Migration, Asyl und Grenzkontrolle
- Justiz und demokratische Prozesse
3. Begrenztes Risiko (Transparenzpflichten)
KI-Systeme, die mit Menschen interagieren (Chatbots), müssen als KI-Systeme gekennzeichnet werden. Deepfakes müssen als KI-generiert markiert werden.
4. Minimales Risiko
KI-Systeme mit minimalem Risiko (Spamfilter, KI in Videospielen) unterliegen keinen spezifischen Anforderungen.
Warum der EU AI Act Schweizer Unternehmen betrifft
Extraterritoriale Wirkung
Wie die DSGVO entfaltet der EU AI Act extraterritoriale Wirkung. Er gilt für:
- Anbieter von KI-Systemen, die in der EU in Verkehr gebracht oder in Betrieb genommen werden — unabhängig vom Firmensitz
- Betreiber von KI-Systemen mit Sitz in der EU
- Anbieter und Betreiber, deren KI-Output in der EU verwendet wird
- Importeure und Händler von KI-Systemen in der EU
«Der EU AI Act hat dieselbe extraterritoriale Reichweite wie die DSGVO. Für Schweizer Unternehmen mit EU-Geschäftstätigkeit ist die Verordnung verbindlich — unabhängig davon, ob die Schweiz ein vergleichbares Gesetz erlässt oder nicht.»
— Prof. Dr. Rolf H. Weber, Universität Zürich, Lehrstuhl für Informations- und Kommunikationsrecht
Konkrete Szenarien für Schweizer Unternehmen
Szenario 1: Schweizer SaaS-Anbieter mit KI-Funktionen
Ein Schweizer Softwareunternehmen bietet eine Plattform mit KI-gestützter Kundenanalyse an. Wenn EU-Kunden diese Plattform nutzen, fällt das KI-System unter den EU AI Act. Wenn es als «Hochrisiko» klassifiziert wird (z. B. bei Kreditentscheidungen), gelten die vollen Anforderungen.
Szenario 2: Schweizer Industrieunternehmen als EU-Zulieferer
Ein Schweizer Maschinenbauunternehmen liefert Komponenten mit eingebetteter KI an EU-Kunden. Der EU-Kunde muss sicherstellen, dass die KI-Komponenten EU AI Act-konform sind — und wird diese Anforderung an den Schweizer Zulieferer weitergeben.
Szenario 3: Schweizer Finanzdienstleister mit EU-Kunden
Eine Schweizer Bank oder Versicherung nutzt KI für Kreditentscheidungen oder Risikobewertungen, die EU-Kunden betreffen. Dies fällt unter «Hochrisiko» und erfordert die vollständige Einhaltung der EU AI Act Anforderungen.
Szenario 4: Schweizer KMU mit KI-Chatbot auf der Website
Ein Schweizer KMU betreibt einen KI-Chatbot auf seiner Website, der auch von EU-Kunden genutzt wird. Für Chatbots gelten die Transparenzpflichten (Kennzeichnung als KI-System). Wenn der Chatbot darüber hinaus bei Kaufentscheidungen berät oder Verträge anbahnt, können weitergehende Anforderungen gelten.
Wie viele Schweizer Unternehmen sind betroffen?
Eine Schätzung der Eidgenössischen Finanzverwaltung (EFV) aus dem Jahr 2025 geht davon aus, dass:
- 2’000-5’000 Schweizer Unternehmen direkt vom EU AI Act betroffen sind (Anbieter oder Betreiber von KI-Systemen in der EU)
- 10’000-20’000 Schweizer Unternehmen indirekt betroffen sind (als Zulieferer oder Partner von EU-Unternehmen mit KI-Anforderungen)
- Die tatsächliche Zahl steigt mit zunehmender KI-Adoption
Pflicht zum Adversarial Testing (Red Teaming)
Was der EU AI Act verlangt
Für Hochrisiko-KI-Systeme verlangt der EU AI Act in mehreren Artikeln explizit adversariales Testing:
Artikel 9 — Risikomanagement:
Anbieter von Hochrisiko-KI-Systemen müssen ein Risikomanagementsystem einrichten, das «geeignete Risikomanagementmassnahmen» umfasst, einschliesslich der Berücksichtigung von «vorhersehbarem Missbrauch» und «adversarialen Angriffen».
Artikel 15 — Genauigkeit, Robustheit und Cybersicherheit:
Hochrisiko-KI-Systeme müssen ein «angemessenes Mass an Genauigkeit, Robustheit und Cybersicherheit» aufweisen. Sie müssen «widerstandsfähig gegen Versuche unbefugter Dritter sein, die Nutzung des Systems durch Ausnutzung von Schwachstellen des Systems zu verändern».
Recital 66:
Die Verordnung fordert explizit «adversarial testing» als Methode zur Identifizierung von Schwachstellen und zur Validierung der Robustheit von KI-Systemen.
Was «adversarial testing» in der Praxis bedeutet
Adversarial testing — im deutschen Sprachraum häufig als «KI Red Teaming» bezeichnet — umfasst:
- Systematische Prompt-Injection-Tests: Versuche, das KI-System dazu zu bringen, seine Sicherheitsgrenzen zu überschreiten
- Jailbreak-Versuche: Tests, ob die Sicherheitsrichtlinien des Modells umgangen werden können
- Datenexfiltrations-Tests: Versuche, sensible Daten über das KI-System zu extrahieren
- Robustheitstests: Prüfung der Widerstandsfähigkeit gegen adversariale Eingaben
- Tool-Abuse-Tests: Missbrauch von Tool-Zugriffen und API-Integrationen
- Bias- und Fairness-Tests: Prüfung auf diskriminierende Ausgaben
Dokumentationsanforderungen
Der EU AI Act verlangt eine gründliche Dokumentation der durchgeführten Tests:
- Art und Methodik der durchgeführten Tests
- Ergebnisse und identifizierte Schwachstellen
- Getroffene Massnahmen zur Behebung
- Bewertung der verbleibenden Risiken
- Regelmässige Wiederholung und Aktualisierung
Ein professioneller KI-Red-Teaming-Bericht kann als zentraler Compliance-Nachweis dienen.
Anforderungen für Hochrisiko-KI-Systeme
Übersicht der Pflichten
| Anforderung | Artikel | Zusammenfassung |
|---|---|---|
| Risikomanagementsystem | Art. 9 | Kontinuierliches Risikomanagement über den gesamten Lebenszyklus |
| Daten-Governance | Art. 10 | Qualitätsanforderungen an Trainings-, Validierungs- und Testdaten |
| Technische Dokumentation | Art. 11 | Gründliche Dokumentation des KI-Systems |
| Aufzeichnungspflicht | Art. 12 | Automatische Protokollierung der KI-Aktivitäten |
| Transparenz | Art. 13 | Ausreichende Transparenz für Betreiber |
| Menschliche Aufsicht | Art. 14 | Mechanismen für menschliche Kontrolle und Eingriff |
| Genauigkeit und Robustheit | Art. 15 | Angemessene Genauigkeit, Robustheit und Cybersicherheit |
| Qualitätsmanagementsystem | Art. 17 | Dokumentiertes QMS beim Anbieter |
| Konformitätsbewertung | Art. 43 | Vor Inverkehrbringen durchzuführen |
| EU-Konformitätserklärung | Art. 47 | Förmliche Konformitätserklärung |
| CE-Kennzeichnung | Art. 48 | CE-Kennzeichnung für Hochrisiko-KI |
Relevanz für KMU
Für Schweizer KMU sind insbesondere folgende Anforderungen relevant:
Sofort umsetzbar:
- Transparenzpflichten (KI als KI kennzeichnen)
- Dokumentation der eingesetzten KI-Systeme
- Grundlegende Risikoeinschätzung
Mittelfristig erforderlich:
- Adversarial Testing (KI Red Teaming) für Hochrisiko-Systeme
- Technische Dokumentation
- Qualitätsmanagementsystem
Langfristig:
- Konformitätsbewertung
- Kontinuierliches Monitoring und regelmässige Re-Evaluation
Strafen bei Nichteinhaltung
Der EU AI Act sieht ein abgestuftes Sanktionsregime vor:
| Verstosstyp | Maximale Strafe | Für KMU |
|---|---|---|
| Verbotene KI-Praktiken | EUR 35 Mio. oder 7 % Umsatz | EUR 7,5 Mio. oder 1 % Umsatz |
| Nichteinhaltung Hochrisiko-Anforderungen | EUR 15 Mio. oder 3 % Umsatz | EUR 7,5 Mio. oder 1 % Umsatz |
| Falsche Angaben gegenüber Behörden | EUR 7,5 Mio. oder 1 % Umsatz | EUR 3,75 Mio. oder 0,5 % Umsatz |
Wichtig: Der EU AI Act sieht für KMU und Startups reduzierte Strafen vor (Kappung auf 1 % des Umsatzes für die schwersten Verstösse). Trotzdem können die Beträge für ein mittelständisches Unternehmen existenzbedrohend sein.
Durchsetzung
Die Durchsetzung erfolgt durch nationale Marktüberwachungsbehörden in den EU-Mitgliedstaaten. Für Schweizer Unternehmen, die in der EU tätig sind, ist die Behörde des jeweiligen EU-Landes zuständig, in dem das KI-System angeboten oder betrieben wird. Bei Tätigkeiten in mehreren EU-Ländern kann die Behörde jedes betroffenen Landes tätig werden.
Wechselwirkung mit dem Schweizer nDSG
Unterschiede und Gemeinsamkeiten
| Aspekt | nDSG | EU AI Act |
|---|---|---|
| Fokus | Datenschutz (Personendaten) | KI-Sicherheit und -Governance |
| Geltungsbereich | Verarbeitung von Personendaten | Einsatz von KI-Systemen |
| Extraterritorialität | Ja (Auswirkungsprinzip) | Ja (Marktortprinzip) |
| Risk-Based Approach | Ja (DSFA für hohes Risiko) | Ja (Risikoklassifizierung) |
| Adversarial Testing | Nicht explizit gefordert | Explizit gefordert (Hochrisiko) |
| Strafen | CHF 250’000 (persönlich) | EUR 35 Mio. oder 7 % Umsatz |
Synergien nutzen
Unternehmen können Synergien zwischen nDSG und EU AI Act Compliance nutzen:
- Datenschutz-Folgenabschätzung (DSFA): Kann mit der Risikobewertung nach EU AI Act kombiniert werden
- Dokumentationspflichten: Überschneiden sich teilweise — eine gute Dokumentation bedient beide Anforderungen
- Technische Massnahmen: Viele Schutzmassnahmen (Verschlüsselung, Zugriffskontrollen, Monitoring) dienen sowohl dem Datenschutz als auch der KI-Sicherheit
- Audit und Testing: Ein KI Red Teaming kann sowohl nDSG-relevante Datenexpositionsrisiken als auch EU AI Act Adversarial-Testing-Anforderungen abdecken
Schweizer KI-Regulierung in Vorbereitung
Der Bundesrat hat im März 2025 einen Entwurf für einen «Swiss AI Governance Framework» in die Vernehmlassung gegeben. Der Entwurf orientiert sich am EU AI Act, sieht aber mildere Sanktionen und einen stärkeren Fokus auf Selbstregulierung vor. Eine Verabschiedung wird frühestens 2027 erwartet. Unternehmen, die den EU AI Act bereits erfüllen, werden den Schweizer Anforderungen voraussichtlich ebenfalls genügen.
EU AI Act Compliance-Checkliste für Schweizer Unternehmen
Phase 1: Bestandsaufnahme (sofort)
- Inventar aller KI-Systeme erstellen, die in oder für die EU eingesetzt werden
- Risikoklassifizierung jedes KI-Systems nach EU AI Act Kategorien
- Identifikation der betroffenen EU-Märkte und zuständigen Behörden
- Prüfung, ob verbotene KI-Praktiken vorliegen (müssen sofort eingestellt werden)
Phase 2: Gap-Analyse (bis Q2 2026)
- Abgleich der bestehenden Dokumentation mit EU AI Act Anforderungen
- Identifikation fehlender technischer Massnahmen (insb. Robustheit, Cybersicherheit)
- Prüfung der Daten-Governance (Qualität der Trainings- und Testdaten)
- Bewertung der menschlichen Aufsichtsmechanismen
Phase 3: Umsetzung (bis August 2026)
- Adversarial Testing (KI Red Teaming) für alle Hochrisiko-Systeme
- Technische Dokumentation erstellen oder ergänzen
- Qualitätsmanagementsystem implementieren oder anpassen
- Monitoring- und Logging-Systeme implementieren
- Konformitätsbewertung durchführen (intern oder extern)
- EU-Konformitätserklärung erstellen
Phase 4: Fortlaufend
- Regelmässige Re-Evaluation der Risikoklassifizierung
- Periodisches adversariales Testing (mindestens jährlich)
- Aktualisierung der Dokumentation bei Änderungen am KI-System
- Monitoring regulatorischer Entwicklungen (EU und Schweiz)
Was KI Red Teaming als Compliance-Massnahme kostet
Ein KI Red Teaming, das als EU AI Act Compliance-Nachweis dient, kostet typischerweise:
| Leistung | Preisspanne (CHF) | Enthält |
|---|---|---|
| Basis-Compliance-Test (einzelnes System) | 15’000 – 30’000 | Adversarial Testing, Basis-Dokumentation |
| Standard-Compliance-Paket | 30’000 – 50’000 | Umfassendes Testing, vollständige Dokumentation, Compliance-Mapping |
| Enterprise-Compliance-Paket | 50’000 – 100’000 | Multi-System-Testing, lückenlose Dokumentation, Remediation Support |
Vergleichen Sie diese Kosten mit den maximalen Strafen (EUR 35 Millionen) — die Investition ist mehr als gerechtfertigt.
Detaillierte Kostenübersicht: Was kostet ein KI-Security-Audit?
Vergleich mit anderen Regulierungen
EU AI Act vs. NIS2
| Aspekt | EU AI Act | NIS2 |
|---|---|---|
| Fokus | KI-Systeme | IT-Sicherheit allgemein |
| Betroffene | KI-Anbieter und -Betreiber | Kritische und wichtige Einrichtungen |
| Strafen | Bis EUR 35 Mio. / 7 % | Bis EUR 10 Mio. / 2 % |
| Adversarial Testing | Explizit gefordert | Implizit (Risikomanagement) |
| Schweiz-Relevanz | Extraterritorial | Extraterritorial |
Mehr zu NIS2: NIS2-Richtlinie: Auswirkungen auf Schweizer Unternehmen
EU AI Act vs. DSGVO
Der EU AI Act ergänzt die DSGVO — er ersetzt sie nicht. KI-Systeme, die Personendaten verarbeiten, müssen sowohl EU AI Act als auch DSGVO (bzw. nDSG für Schweizer Unternehmen) einhalten. Die Anforderungen überschneiden sich teilweise (Transparenz, Risikobewertung), gehen aber in unterschiedliche Richtungen (Datenschutz vs. KI-Sicherheit).
Handlungsempfehlungen für Schweizer Unternehmen
Sofort (bis Ende Q1 2026)
- KI-Inventar erstellen: Identifizieren Sie alle KI-Systeme mit EU-Bezug
- Risikoklassifizierung durchführen: Bestimmen Sie die Risikokategorie jedes Systems
- Verbotene Praktiken prüfen: Stellen Sie sicher, dass keine verbotenen KI-Praktiken vorliegen
- Budget planen: Planen Sie Budget für Adversarial Testing und Compliance-Dokumentation
Kurzfristig (Q2 2026)
- Gap-Analyse durchführen: Identifizieren Sie Lücken zwischen Ist-Zustand und EU AI Act Anforderungen
- KI Red Teaming beauftragen: Lassen Sie Hochrisiko-KI-Systeme professionell testen
- Dokumentation erstellen: Beginnen Sie mit der technischen Dokumentation
Bis August 2026
- Alle Hochrisiko-Anforderungen erfüllen: Adversarial Testing, Dokumentation, QMS, Monitoring
- Konformitätsbewertung abschliessen: Intern oder extern
- EU-Konformitätserklärung erstellen: Formeller Compliance-Nachweis
Weiterführende Ressourcen
- KI Red Teaming: Warum Ihre KI-Systeme getestet werden müssen
- KI-Sicherheit für KMU: Der Komplettleitfaden
- Was kostet ein KI-Security-Audit?
- NIS2-Richtlinie: Auswirkungen auf Schweizer Unternehmen
- nDSG Compliance und Cybersecurity
- Prompt Injection Angriffe
Fazit: Der EU AI Act ist für Schweizer Unternehmen Realität
Der EU AI Act ist nicht «irgendeine EU-Regulierung, die uns nicht betrifft». Für die tausenden Schweizer Unternehmen mit EU-Geschäftstätigkeit — und das schliesst die grosse Mehrheit der exportorientierten Wirtschaft ein — ist er verbindliches Recht mit empfindlichen Strafen.
Die Frist ist klar: 2. August 2026. Unternehmen, die jetzt mit der Vorbereitung beginnen, haben ausreichend Zeit für eine geordnete Compliance. Unternehmen, die warten, riskieren Hektik, höhere Kosten und potenzielle Strafen.
Der erste Schritt ist ein KI-Inventar und eine Risikoklassifizierung. Der wichtigste Schritt ist adversariales Testing (KI Red Teaming) — denn es ist sowohl die wirksamste Sicherheitsmassnahme als auch eine explizite regulatorische Anforderung.