Der EU AI Act ist das weltweit erste gründliche KI-Gesetz — und er betrifft Schweizer Unternehmen stärker, als viele annehmen. Ab dem 2. August 2026 gelten die vollständigen Anforderungen für Hochrisiko-KI-Systeme, einschliesslich der expliziten Pflicht zum adversarialen Testing (Red Teaming). Schweizer Unternehmen, die KI-Systeme in der EU anbieten, EU-Kunden bedienen oder in EU-Lieferketten eingebunden sind, müssen diese Anforderungen erfüllen — bei Nichteinhaltung drohen Strafen von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes.

Nachfolgend analysieren wir den EU AI Act aus Schweizer Perspektive, identifiziert betroffene Unternehmen und zeigt auf, welche konkreten Massnahmen erforderlich sind.

Was ist der EU AI Act?

Der EU AI Act (Verordnung (EU) 2024/1689) ist eine europäische Verordnung, die den Einsatz von künstlicher Intelligenz in der EU reguliert. Er wurde am 13. Juni 2024 vom Europäischen Parlament verabschiedet und tritt stufenweise in Kraft:

Zeitplan der Inkraftsetzung

DatumWas tritt in Kraft
1. August 2024Verordnung veröffentlicht
2. Februar 2025Verbot unannehmbarer KI-Praktiken
2. August 2025Anforderungen für KI-Modelle mit allgemeinem Verwendungszweck (GPAI)
2. August 2026Vollständige Geltung: Anforderungen für Hochrisiko-KI-Systeme
2. August 2027Anforderungen für KI-Systeme in regulierten Produkten (Anhang I)

Risikobasierter Ansatz

Der EU AI Act klassifiziert KI-Systeme in vier Risikokategorien:

1. Unannehmbares Risiko (verboten)

Bestimmte KI-Praktiken sind vollständig verboten:

  • Soziale Bewertungssysteme (Social Scoring) durch öffentliche Behörden
  • Biometrische Echtzeit-Fernidentifizierung in öffentlichen Räumen (mit Ausnahmen)
  • KI-Systeme, die Verhalten manipulieren und dadurch Schaden verursachen
  • KI, die Schwächen von Personen (Alter, Behinderung) ausnutzt
  • Erstellung von Gesichtserkennungsdatenbanken durch Massenüberwachung

2. Hohes Risiko

KI-Systeme in folgenden Bereichen gelten als «Hochrisiko» und unterliegen strengen Anforderungen:

  • Biometrische Identifizierung und Kategorisierung
  • Kritische Infrastruktur (Energie, Verkehr, Wasser)
  • Bildung und berufliche Ausbildung (Zugang, Bewertung)
  • Beschäftigung und Personalmanagement
  • Zugang zu wesentlichen Dienstleistungen (Kredit, Versicherung)
  • Strafverfolgung
  • Migration, Asyl und Grenzkontrolle
  • Justiz und demokratische Prozesse

3. Begrenztes Risiko (Transparenzpflichten)

KI-Systeme, die mit Menschen interagieren (Chatbots), müssen als KI-Systeme gekennzeichnet werden. Deepfakes müssen als KI-generiert markiert werden.

4. Minimales Risiko

KI-Systeme mit minimalem Risiko (Spamfilter, KI in Videospielen) unterliegen keinen spezifischen Anforderungen.

Warum der EU AI Act Schweizer Unternehmen betrifft

Extraterritoriale Wirkung

Wie die DSGVO entfaltet der EU AI Act extraterritoriale Wirkung. Er gilt für:

  • Anbieter von KI-Systemen, die in der EU in Verkehr gebracht oder in Betrieb genommen werden — unabhängig vom Firmensitz
  • Betreiber von KI-Systemen mit Sitz in der EU
  • Anbieter und Betreiber, deren KI-Output in der EU verwendet wird
  • Importeure und Händler von KI-Systemen in der EU

«Der EU AI Act hat dieselbe extraterritoriale Reichweite wie die DSGVO. Für Schweizer Unternehmen mit EU-Geschäftstätigkeit ist die Verordnung verbindlich — unabhängig davon, ob die Schweiz ein vergleichbares Gesetz erlässt oder nicht.»

— Prof. Dr. Rolf H. Weber, Universität Zürich, Lehrstuhl für Informations- und Kommunikationsrecht

Konkrete Szenarien für Schweizer Unternehmen

Szenario 1: Schweizer SaaS-Anbieter mit KI-Funktionen

Ein Schweizer Softwareunternehmen bietet eine Plattform mit KI-gestützter Kundenanalyse an. Wenn EU-Kunden diese Plattform nutzen, fällt das KI-System unter den EU AI Act. Wenn es als «Hochrisiko» klassifiziert wird (z. B. bei Kreditentscheidungen), gelten die vollen Anforderungen.

Szenario 2: Schweizer Industrieunternehmen als EU-Zulieferer

Ein Schweizer Maschinenbauunternehmen liefert Komponenten mit eingebetteter KI an EU-Kunden. Der EU-Kunde muss sicherstellen, dass die KI-Komponenten EU AI Act-konform sind — und wird diese Anforderung an den Schweizer Zulieferer weitergeben.

Szenario 3: Schweizer Finanzdienstleister mit EU-Kunden

Eine Schweizer Bank oder Versicherung nutzt KI für Kreditentscheidungen oder Risikobewertungen, die EU-Kunden betreffen. Dies fällt unter «Hochrisiko» und erfordert die vollständige Einhaltung der EU AI Act Anforderungen.

Szenario 4: Schweizer KMU mit KI-Chatbot auf der Website

Ein Schweizer KMU betreibt einen KI-Chatbot auf seiner Website, der auch von EU-Kunden genutzt wird. Für Chatbots gelten die Transparenzpflichten (Kennzeichnung als KI-System). Wenn der Chatbot darüber hinaus bei Kaufentscheidungen berät oder Verträge anbahnt, können weitergehende Anforderungen gelten.

Wie viele Schweizer Unternehmen sind betroffen?

Eine Schätzung der Eidgenössischen Finanzverwaltung (EFV) aus dem Jahr 2025 geht davon aus, dass:

  • 2’000-5’000 Schweizer Unternehmen direkt vom EU AI Act betroffen sind (Anbieter oder Betreiber von KI-Systemen in der EU)
  • 10’000-20’000 Schweizer Unternehmen indirekt betroffen sind (als Zulieferer oder Partner von EU-Unternehmen mit KI-Anforderungen)
  • Die tatsächliche Zahl steigt mit zunehmender KI-Adoption

Pflicht zum Adversarial Testing (Red Teaming)

Was der EU AI Act verlangt

Für Hochrisiko-KI-Systeme verlangt der EU AI Act in mehreren Artikeln explizit adversariales Testing:

Artikel 9 — Risikomanagement:

Anbieter von Hochrisiko-KI-Systemen müssen ein Risikomanagementsystem einrichten, das «geeignete Risikomanagementmassnahmen» umfasst, einschliesslich der Berücksichtigung von «vorhersehbarem Missbrauch» und «adversarialen Angriffen».

Artikel 15 — Genauigkeit, Robustheit und Cybersicherheit:

Hochrisiko-KI-Systeme müssen ein «angemessenes Mass an Genauigkeit, Robustheit und Cybersicherheit» aufweisen. Sie müssen «widerstandsfähig gegen Versuche unbefugter Dritter sein, die Nutzung des Systems durch Ausnutzung von Schwachstellen des Systems zu verändern».

Recital 66:

Die Verordnung fordert explizit «adversarial testing» als Methode zur Identifizierung von Schwachstellen und zur Validierung der Robustheit von KI-Systemen.

Was «adversarial testing» in der Praxis bedeutet

Adversarial testing — im deutschen Sprachraum häufig als «KI Red Teaming» bezeichnet — umfasst:

  • Systematische Prompt-Injection-Tests: Versuche, das KI-System dazu zu bringen, seine Sicherheitsgrenzen zu überschreiten
  • Jailbreak-Versuche: Tests, ob die Sicherheitsrichtlinien des Modells umgangen werden können
  • Datenexfiltrations-Tests: Versuche, sensible Daten über das KI-System zu extrahieren
  • Robustheitstests: Prüfung der Widerstandsfähigkeit gegen adversariale Eingaben
  • Tool-Abuse-Tests: Missbrauch von Tool-Zugriffen und API-Integrationen
  • Bias- und Fairness-Tests: Prüfung auf diskriminierende Ausgaben

Dokumentationsanforderungen

Der EU AI Act verlangt eine gründliche Dokumentation der durchgeführten Tests:

  • Art und Methodik der durchgeführten Tests
  • Ergebnisse und identifizierte Schwachstellen
  • Getroffene Massnahmen zur Behebung
  • Bewertung der verbleibenden Risiken
  • Regelmässige Wiederholung und Aktualisierung

Ein professioneller KI-Red-Teaming-Bericht kann als zentraler Compliance-Nachweis dienen.

Anforderungen für Hochrisiko-KI-Systeme

Übersicht der Pflichten

AnforderungArtikelZusammenfassung
RisikomanagementsystemArt. 9Kontinuierliches Risikomanagement über den gesamten Lebenszyklus
Daten-GovernanceArt. 10Qualitätsanforderungen an Trainings-, Validierungs- und Testdaten
Technische DokumentationArt. 11Gründliche Dokumentation des KI-Systems
AufzeichnungspflichtArt. 12Automatische Protokollierung der KI-Aktivitäten
TransparenzArt. 13Ausreichende Transparenz für Betreiber
Menschliche AufsichtArt. 14Mechanismen für menschliche Kontrolle und Eingriff
Genauigkeit und RobustheitArt. 15Angemessene Genauigkeit, Robustheit und Cybersicherheit
QualitätsmanagementsystemArt. 17Dokumentiertes QMS beim Anbieter
KonformitätsbewertungArt. 43Vor Inverkehrbringen durchzuführen
EU-KonformitätserklärungArt. 47Förmliche Konformitätserklärung
CE-KennzeichnungArt. 48CE-Kennzeichnung für Hochrisiko-KI

Relevanz für KMU

Für Schweizer KMU sind insbesondere folgende Anforderungen relevant:

Sofort umsetzbar:

  • Transparenzpflichten (KI als KI kennzeichnen)
  • Dokumentation der eingesetzten KI-Systeme
  • Grundlegende Risikoeinschätzung

Mittelfristig erforderlich:

  • Adversarial Testing (KI Red Teaming) für Hochrisiko-Systeme
  • Technische Dokumentation
  • Qualitätsmanagementsystem

Langfristig:

  • Konformitätsbewertung
  • Kontinuierliches Monitoring und regelmässige Re-Evaluation

Strafen bei Nichteinhaltung

Der EU AI Act sieht ein abgestuftes Sanktionsregime vor:

VerstosstypMaximale StrafeFür KMU
Verbotene KI-PraktikenEUR 35 Mio. oder 7 % UmsatzEUR 7,5 Mio. oder 1 % Umsatz
Nichteinhaltung Hochrisiko-AnforderungenEUR 15 Mio. oder 3 % UmsatzEUR 7,5 Mio. oder 1 % Umsatz
Falsche Angaben gegenüber BehördenEUR 7,5 Mio. oder 1 % UmsatzEUR 3,75 Mio. oder 0,5 % Umsatz

Wichtig: Der EU AI Act sieht für KMU und Startups reduzierte Strafen vor (Kappung auf 1 % des Umsatzes für die schwersten Verstösse). Trotzdem können die Beträge für ein mittelständisches Unternehmen existenzbedrohend sein.

Durchsetzung

Die Durchsetzung erfolgt durch nationale Marktüberwachungsbehörden in den EU-Mitgliedstaaten. Für Schweizer Unternehmen, die in der EU tätig sind, ist die Behörde des jeweiligen EU-Landes zuständig, in dem das KI-System angeboten oder betrieben wird. Bei Tätigkeiten in mehreren EU-Ländern kann die Behörde jedes betroffenen Landes tätig werden.

Wechselwirkung mit dem Schweizer nDSG

Unterschiede und Gemeinsamkeiten

AspektnDSGEU AI Act
FokusDatenschutz (Personendaten)KI-Sicherheit und -Governance
GeltungsbereichVerarbeitung von PersonendatenEinsatz von KI-Systemen
ExtraterritorialitätJa (Auswirkungsprinzip)Ja (Marktortprinzip)
Risk-Based ApproachJa (DSFA für hohes Risiko)Ja (Risikoklassifizierung)
Adversarial TestingNicht explizit gefordertExplizit gefordert (Hochrisiko)
StrafenCHF 250’000 (persönlich)EUR 35 Mio. oder 7 % Umsatz

Synergien nutzen

Unternehmen können Synergien zwischen nDSG und EU AI Act Compliance nutzen:

  • Datenschutz-Folgenabschätzung (DSFA): Kann mit der Risikobewertung nach EU AI Act kombiniert werden
  • Dokumentationspflichten: Überschneiden sich teilweise — eine gute Dokumentation bedient beide Anforderungen
  • Technische Massnahmen: Viele Schutzmassnahmen (Verschlüsselung, Zugriffskontrollen, Monitoring) dienen sowohl dem Datenschutz als auch der KI-Sicherheit
  • Audit und Testing: Ein KI Red Teaming kann sowohl nDSG-relevante Datenexpositionsrisiken als auch EU AI Act Adversarial-Testing-Anforderungen abdecken

Schweizer KI-Regulierung in Vorbereitung

Der Bundesrat hat im März 2025 einen Entwurf für einen «Swiss AI Governance Framework» in die Vernehmlassung gegeben. Der Entwurf orientiert sich am EU AI Act, sieht aber mildere Sanktionen und einen stärkeren Fokus auf Selbstregulierung vor. Eine Verabschiedung wird frühestens 2027 erwartet. Unternehmen, die den EU AI Act bereits erfüllen, werden den Schweizer Anforderungen voraussichtlich ebenfalls genügen.

EU AI Act Compliance-Checkliste für Schweizer Unternehmen

Phase 1: Bestandsaufnahme (sofort)

  • Inventar aller KI-Systeme erstellen, die in oder für die EU eingesetzt werden
  • Risikoklassifizierung jedes KI-Systems nach EU AI Act Kategorien
  • Identifikation der betroffenen EU-Märkte und zuständigen Behörden
  • Prüfung, ob verbotene KI-Praktiken vorliegen (müssen sofort eingestellt werden)

Phase 2: Gap-Analyse (bis Q2 2026)

  • Abgleich der bestehenden Dokumentation mit EU AI Act Anforderungen
  • Identifikation fehlender technischer Massnahmen (insb. Robustheit, Cybersicherheit)
  • Prüfung der Daten-Governance (Qualität der Trainings- und Testdaten)
  • Bewertung der menschlichen Aufsichtsmechanismen

Phase 3: Umsetzung (bis August 2026)

  • Adversarial Testing (KI Red Teaming) für alle Hochrisiko-Systeme
  • Technische Dokumentation erstellen oder ergänzen
  • Qualitätsmanagementsystem implementieren oder anpassen
  • Monitoring- und Logging-Systeme implementieren
  • Konformitätsbewertung durchführen (intern oder extern)
  • EU-Konformitätserklärung erstellen

Phase 4: Fortlaufend

  • Regelmässige Re-Evaluation der Risikoklassifizierung
  • Periodisches adversariales Testing (mindestens jährlich)
  • Aktualisierung der Dokumentation bei Änderungen am KI-System
  • Monitoring regulatorischer Entwicklungen (EU und Schweiz)

Was KI Red Teaming als Compliance-Massnahme kostet

Ein KI Red Teaming, das als EU AI Act Compliance-Nachweis dient, kostet typischerweise:

LeistungPreisspanne (CHF)Enthält
Basis-Compliance-Test (einzelnes System)15’000 – 30’000Adversarial Testing, Basis-Dokumentation
Standard-Compliance-Paket30’000 – 50’000Umfassendes Testing, vollständige Dokumentation, Compliance-Mapping
Enterprise-Compliance-Paket50’000 – 100’000Multi-System-Testing, lückenlose Dokumentation, Remediation Support

Vergleichen Sie diese Kosten mit den maximalen Strafen (EUR 35 Millionen) — die Investition ist mehr als gerechtfertigt.

Detaillierte Kostenübersicht: Was kostet ein KI-Security-Audit?

Vergleich mit anderen Regulierungen

EU AI Act vs. NIS2

AspektEU AI ActNIS2
FokusKI-SystemeIT-Sicherheit allgemein
BetroffeneKI-Anbieter und -BetreiberKritische und wichtige Einrichtungen
StrafenBis EUR 35 Mio. / 7 %Bis EUR 10 Mio. / 2 %
Adversarial TestingExplizit gefordertImplizit (Risikomanagement)
Schweiz-RelevanzExtraterritorialExtraterritorial

Mehr zu NIS2: NIS2-Richtlinie: Auswirkungen auf Schweizer Unternehmen

EU AI Act vs. DSGVO

Der EU AI Act ergänzt die DSGVO — er ersetzt sie nicht. KI-Systeme, die Personendaten verarbeiten, müssen sowohl EU AI Act als auch DSGVO (bzw. nDSG für Schweizer Unternehmen) einhalten. Die Anforderungen überschneiden sich teilweise (Transparenz, Risikobewertung), gehen aber in unterschiedliche Richtungen (Datenschutz vs. KI-Sicherheit).

Handlungsempfehlungen für Schweizer Unternehmen

Sofort (bis Ende Q1 2026)

  1. KI-Inventar erstellen: Identifizieren Sie alle KI-Systeme mit EU-Bezug
  2. Risikoklassifizierung durchführen: Bestimmen Sie die Risikokategorie jedes Systems
  3. Verbotene Praktiken prüfen: Stellen Sie sicher, dass keine verbotenen KI-Praktiken vorliegen
  4. Budget planen: Planen Sie Budget für Adversarial Testing und Compliance-Dokumentation

Kurzfristig (Q2 2026)

  1. Gap-Analyse durchführen: Identifizieren Sie Lücken zwischen Ist-Zustand und EU AI Act Anforderungen
  2. KI Red Teaming beauftragen: Lassen Sie Hochrisiko-KI-Systeme professionell testen
  3. Dokumentation erstellen: Beginnen Sie mit der technischen Dokumentation

Bis August 2026

  1. Alle Hochrisiko-Anforderungen erfüllen: Adversarial Testing, Dokumentation, QMS, Monitoring
  2. Konformitätsbewertung abschliessen: Intern oder extern
  3. EU-Konformitätserklärung erstellen: Formeller Compliance-Nachweis

Weiterführende Ressourcen

Fazit: Der EU AI Act ist für Schweizer Unternehmen Realität

Der EU AI Act ist nicht «irgendeine EU-Regulierung, die uns nicht betrifft». Für die tausenden Schweizer Unternehmen mit EU-Geschäftstätigkeit — und das schliesst die grosse Mehrheit der exportorientierten Wirtschaft ein — ist er verbindliches Recht mit empfindlichen Strafen.

Die Frist ist klar: 2. August 2026. Unternehmen, die jetzt mit der Vorbereitung beginnen, haben ausreichend Zeit für eine geordnete Compliance. Unternehmen, die warten, riskieren Hektik, höhere Kosten und potenzielle Strafen.

Der erste Schritt ist ein KI-Inventar und eine Risikoklassifizierung. Der wichtigste Schritt ist adversariales Testing (KI Red Teaming) — denn es ist sowohl die wirksamste Sicherheitsmassnahme als auch eine explizite regulatorische Anforderung.