Künstliche Intelligenz verändert die Schweizer Wirtschaft in einem Tempo, das die Sicherheitsmassnahmen der meisten Unternehmen weit hinter sich lässt. 67 Prozent der Schweizer KMU nutzen bereits KI-Tools — aber nur 18 Prozent haben Richtlinien dafür, und weniger als 5 Prozent haben ein KI-spezifisches Security-Assessment durchgeführt. Gleichzeitig steht mit dem EU AI Act ab August 2026 eine Regulierung vor der Tür, die adversariales Testing (Red Teaming) für Hochrisiko-KI-Systeme zur Pflicht macht — mit Strafen von bis zu 35 Millionen Euro.
Dieser Leitfaden ist die umfassendste deutschsprachige Ressource zu KI-Sicherheit für Schweizer KMU. Er deckt alle relevanten Bedrohungen, Massnahmen, regulatorischen Anforderungen und praktischen Handlungsschritte ab — von der Ersteinschätzung bis zum professionellen KI Red Teaming.
Inhaltsübersicht
- Warum KI-Sicherheit für KMU jetzt kritisch ist
- Die KI-Bedrohungslandschaft 2026
- Prompt Injection: Die Schwachstelle Nr. 1
- Model Poisoning und Training-Data-Angriffe
- Datenexposition durch KI-Systeme
- Der McKinsey-Lilli-Vorfall
- Claude Code, Copilot und KI-Coding-Tools
- Shadow AI: Das unsichtbare Risiko
- EU AI Act: Regulatorische Anforderungen
- nDSG und KI: Datenschutzrechtliche Implikationen
- Die 25-Punkte-KI-Sicherheitscheckliste
- Wann Sie KI Red Teaming brauchen
- Was KI Red Teaming kostet
- Fazit und nächste Schritte
Warum KI-Sicherheit für KMU jetzt kritisch ist
Drei Entwicklungen machen KI-Sicherheit im Jahr 2026 zur dringenden Priorität für Schweizer KMU:
1. Massive KI-Adoption ohne Sicherheitsinfrastruktur
Die Schweiz erlebt eine beispiellose KI-Adoptionswelle. Die gfs-zürich-Studie (2025) dokumentiert:
- 67 Prozent der KMU nutzen KI-Tools (Vorjahr: 41 Prozent)
- 18 Prozent haben eine KI-Nutzungsrichtlinie (Vorjahr: 8 Prozent)
- 43 Prozent der Mitarbeitenden nutzen KI-Tools, die der IT-Abteilung unbekannt sind
- 72 Prozent der KI-Nutzung geschieht über persönliche Accounts
Die Lücke zwischen Nutzung und Governance wächst — und mit ihr das Risiko.
2. Neue Angriffsvektoren, die traditionelle Security nicht abdeckt
KI-Systeme haben eine fundamental andere Angriffsfläche als traditionelle Software. Die OWASP Top 10 for LLM Applications (2025) listet Schwachstellen auf, die in keinem traditionellen Security-Framework vorkommen: Prompt Injection, Excessive Agency, Model Poisoning, Insecure Plugin Design.
73 Prozent aller produktiven KI-Systeme sind für mindestens eine Form von Prompt Injection anfällig (OWASP, 2025). Kein Vulnerability Scanner, kein traditioneller Penetrationstest und kein SOC-Monitoring erkennt diese Schwachstellen.
3. Regulatorischer Druck durch EU AI Act
Der EU AI Act tritt am 2. August 2026 vollständig in Kraft und verlangt für Hochrisiko-KI-Systeme explizit «adversarial testing» — Red Teaming. Schweizer Unternehmen, die KI-Produkte oder -Dienstleistungen in der EU anbieten oder EU-Kunden bedienen, müssen diese Anforderungen erfüllen. Strafen bei Nichteinhaltung: bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes.
«KI-Sicherheit ist 2026, was Datenschutz 2018 war: Die Regulierung kommt, die Technologie ist schon da, und die meisten Unternehmen sind nicht vorbereitet.»
— Prof. Dr. Thomas Puschmann, Universität Bern, KI-Governance-Forschung
Die KI-Bedrohungslandschaft 2026
Überblick der KI-spezifischen Bedrohungen
| Bedrohung | Risikostufe | Häufigkeit | Detailartikel |
|---|---|---|---|
| Prompt Injection | Kritisch | 73 % der Systeme betroffen | Prompt Injection Angriffe |
| Excessive Agency | Hoch | McKinsey-Typ-Vorfälle | KI Red Teaming |
| Shadow AI / Datenleckage | Hoch | 67 % der KMU betroffen | Shadow AI Risiken |
| KI-Coding-Tool-Schwachstellen | Hoch | CVE-2025-59536 (CVSS 8.7) | Claude Code & Copilot |
| KI-gestütztes Phishing | Hoch | 42 % aller Angriffe KI-gestützt | KI-Phishing |
| Model Poisoning | Mittel | Steigend | Dieser Leitfaden |
| Supply Chain (KI) | Mittel | Steigend | Supply Chain Angriffe |
| KI-basierte Cyberangriffe | Hoch | 300 % Zunahme seit 2023 | KI-Cyberangriffe |
KI als Angriffswerkzeug vs. KI als Angriffsziel
Es ist wichtig, zwei fundamentale Dimensionen der KI-Sicherheit zu unterscheiden:
KI als Angriffswerkzeug: Cyberkriminelle nutzen KI, um ihre Angriffe effektiver zu machen — automatisiertes Phishing, Deepfakes, polymorphe Malware, automatisierte Schwachstellensuche. Diese Dimension betrifft alle Unternehmen, unabhängig davon, ob sie selbst KI einsetzen. Mehr dazu in unserem Artikel KI-basierte Cyberangriffe.
KI als Angriffsziel: Die KI-Systeme des Unternehmens selbst werden angegriffen — über Prompt Injection, Datenexfiltration, Jailbreaking, Tool Abuse. Diese Dimension betrifft spezifisch Unternehmen, die KI-Systeme einsetzen.
Dieser Leitfaden behandelt beide Dimensionen, mit besonderem Fokus auf die zweite — weil sie neuer, weniger verstanden und von traditioneller Cybersecurity nicht abgedeckt ist.
Prompt Injection: Die Schwachstelle Nr. 1
Prompt Injection ist die häufigste und am schwersten zu behebende Schwachstelle in KI-Systemen. Sie steht auf Platz 1 der OWASP Top 10 for LLM Applications und betrifft 73 Prozent aller produktiven KI-Systeme.
Was Prompt Injection ist
Bei einer Prompt Injection manipuliert ein Angreifer die Eingaben an ein KI-System, sodass es seine ursprünglichen Anweisungen ignoriert und stattdessen die Anweisungen des Angreifers ausführt. Es gibt zwei Hauptformen:
Direkte Prompt Injection: Der Angreifer gibt seine manipulativen Anweisungen direkt in das KI-System ein (z. B. in einen Chatbot).
Indirekte Prompt Injection: Der Angreifer platziert Anweisungen in Inhalten, die das KI-System verarbeitet (z. B. in E-Mails, Dokumenten, Webseiten). Dies ist besonders gefährlich, weil der Angriff ohne Wissen des Nutzers erfolgen kann.
Warum Prompt Injection nicht «gefixt» werden kann
OpenAI hat öffentlich eingeräumt, dass Prompt Injection «wahrscheinlich nie vollständig gelöst» werden kann. Der Grund: LLMs können konzeptionell nicht zwischen «Systemanweisungen» und «Nutzereingaben» unterscheiden — beides ist Text, der gleichberechtigt verarbeitet wird. Es gibt kein Äquivalent zu Prepared Statements (der Lösung für SQL Injection) für LLMs.
Ausführliche Analyse: Prompt Injection: Die grösste Schwachstelle in KI-Systemen
Model Poisoning und Training-Data-Angriffe
Was Model Poisoning ist
Model Poisoning (Modellvergiftung) bezeichnet Angriffe, bei denen die Trainingsdaten eines KI-Modells manipuliert werden, um das Verhalten des Modells gezielt zu verändern. Dies kann geschehen durch:
- Direkte Manipulation der Trainingsdaten: Wenn ein Angreifer Zugang zu den Trainingsdaten hat
- Indirekte Vergiftung über öffentliche Daten: Manipulation von Webseiten, Foren oder Dokumenten, die als Trainingsdaten verwendet werden
- Fine-Tuning-Angriffe: Manipulation der Daten, die zum Fine-Tuning eines Modells für eine spezifische Aufgabe verwendet werden
Relevanz für KMU
Für die meisten KMU ist Model Poisoning weniger relevant als Prompt Injection, weil KMU typischerweise vortrainierte Modelle nutzen und keine eigenen Modelle trainieren. Es wird jedoch relevant, wenn:
- Das Unternehmen Fine-Tuning mit eigenen Daten durchführt
- RAG-Systeme (Retrieval-Augmented Generation) eingesetzt werden, bei denen die Wissensdatenbank manipuliert werden kann
- KI-Modelle auf Basis von Web-Scraping oder Nutzerfeedback aktualisiert werden
Schutzmassnahmen
- Trainingsdaten und Fine-Tuning-Daten auf Integrität prüfen
- RAG-Datenquellen gegen unbefugte Änderungen schützen
- Modellverhalten regelmässig auf Abweichungen überwachen
- Zugriffskontrollen für Trainingspipelines implementieren
Datenexposition durch KI-Systeme
Das Problem der unbeabsichtigten Datenweitergabe
KI-Systeme können sensible Daten auf mehrere Arten exponieren:
- Direkte Preisgabe: Das Modell gibt sensible Informationen aus seinen Trainingsdaten oder seinem Kontext preis
- Indirekte Preisgabe: Durch geschickte Abfragen können Rückschlüsse auf sensible Daten gezogen werden
- Exfiltration über Tool-Aufrufe: KI-Agenten mit Tool-Zugriff können dazu gebracht werden, Daten an externe Endpunkte zu senden
- Logging und Monitoring: KI-Interaktionen werden oft geloggt — und diese Logs enthalten die eingegebenen Daten
Sensible Daten in Systemprompts
Ein häufiger Fehler: Entwickler platzieren sensible Informationen im Systemprompt — API-Schlüssel, interne URLs, Datenbankzugangsdaten, Geschäftslogik, Preiskalkulationen. Diese Informationen können über Prompt Injection extrahiert werden.
Schutzmassnahmen
- Keine sensitiven Daten in Systemprompts
- Principle of Least Privilege für KI-Datenzugriff
- Output-Filter für sensible Datenmuster (Kreditkartennummern, AHV-Nummern, etc.)
- Logging mit Datenmaskierung
- Regelmässige Überprüfung durch KI Red Teaming
Der McKinsey-Lilli-Vorfall
Der Vorfall vom 28. Februar 2026 ist die bisher deutlichste Warnung für Unternehmen, die KI-Systeme ohne ausreichende Sicherheitsprüfung einsetzen.
Zusammenfassung
- Was: McKinseys interner KI-Assistent «Lilli» war über Prompt Injection manipulierbar
- Ausmass: 46,5 Millionen interne Nachrichten potenziell exponiert
- Dauer: Unter 2 Stunden für die Demonstration des Angriffs
- Erkennung: Keine Erkennung durch bestehende Sicherheitssysteme (Scanner, SOC, Pentests)
- Ursache: Excessive Agency — der KI-Assistent hatte zu weitreichende Berechtigungen
Lehren für Schweizer KMU
- Traditionelle Sicherheitstests reichen nicht aus. McKinsey hatte ein ausgereiftes Sicherheitsprogramm — und trotzdem blieb die Schwachstelle unentdeckt.
- KI-Berechtigungen müssen minimiert werden. Ein KI-Assistent braucht nicht Zugriff auf 46,5 Millionen Nachrichten, um seinen Zweck zu erfüllen.
- KI Red Teaming ist die einzige Methode, die KI-spezifische Schwachstellen systematisch aufdeckt.
Ausführliche Analyse: KI Red Teaming: Warum Ihre KI-Systeme getestet werden müssen
Claude Code, Copilot und KI-Coding-Tools
KI-Coding-Tools wie Claude Code und GitHub Copilot haben sich von Entwicklertools zu Business-Automatisierungstools gewandelt. Über 50 Prozent der aktiven Nutzer in grossen Unternehmen sind keine Softwareentwickler — sie nutzen diese Tools für LinkedIn-Scraping, CRM-Automatisierung, Finanzverarbeitung und Kundenoutreach.
Dokumentierte Schwachstellen
- CVE-2025-59536 (CVSS 8.7): Remote Code Execution in Claude Code über manipulierte Projektdateien
- CVE-2026-21852: API-Key-Exfiltration über indirekte Prompt Injection in Projektdateien
Spezifische Risiken
- Voller Systemzugriff: Claude Code hat Zugriff auf das gesamte Dateisystem, kann Befehle ausführen und Netzwerkverbindungen aufbauen
- API-Keys in Projekten: Mitarbeitende speichern Zugangsdaten in Konfigurationsdateien, die von KI-Tools gelesen und potenziell exfiltriert werden
- Unkontrollierte Installation: KI-Coding-Tools werden oft als Shadow AI installiert
- Kein Code-Review: Nicht-Entwickler führen KI-generierten Code aus, ohne ihn zu prüfen
Ausführliche Analyse: Claude Code & Copilot: Neue Angriffsfläche
Shadow AI: Das unsichtbare Risiko
Shadow AI — die unkontrollierte Nutzung von KI-Tools durch Mitarbeitende — ist für die meisten Schweizer KMU das unmittelbarste KI-Sicherheitsrisiko, weil es bereits heute existiert und in den meisten Fällen unsichtbar ist.
Die Zahlen
- 67 % nutzen KI-Tools (gfs-zürich, 2025)
- 18 % haben Richtlinien (gfs-zürich, 2025)
- 43 % der Mitarbeitenden nutzen KI-Tools ohne Wissen der IT (Universität Bern, 2025)
- 31 % geben «regelmässig» Unternehmensdaten in KI-Systeme ein (ZHAW, 2025)
Typische Shadow-AI-Szenarien in KMU
- Kundenservice: Mitarbeitende nutzen ChatGPT, um Kundenanfragen zu beantworten — und geben dabei Kundendaten ein
- Finanzen: Der CFO nutzt Claude, um Finanzberichte zusammenzufassen — inklusive vertraulicher Zahlen
- HR: Recruiter laden Bewerbungen in KI-Tools hoch — inklusive Personendaten
- Vertrieb: Vertriebsmitarbeitende nutzen Claude Code für LinkedIn-Scraping und Outreach-Automatisierung
- Legal: Juristen nutzen KI für Vertragsprüfung — mit vertraulichen Vertragsinhalten
Handlungsplan
Die Lösung liegt nicht im Verbot (das zu mehr Shadow AI führt), sondern in der kontrollierten Bereitstellung sicherer Alternativen, kombiniert mit klaren Richtlinien und Monitoring.
Ausführliche Analyse: Shadow AI: Wenn Mitarbeitende KI-Tools ohne Genehmigung nutzen
EU AI Act: Regulatorische Anforderungen
Überblick
Der EU AI Act ist das weltweit erste gründliche KI-Gesetz. Er tritt stufenweise in Kraft, mit vollständiger Geltung ab dem 2. August 2026. Die Verordnung klassifiziert KI-Systeme nach Risikostufen und legt für jede Stufe spezifische Anforderungen fest.
Extraterritoriale Wirkung: Warum die Schweiz betroffen ist
Wie die DSGVO hat der EU AI Act extraterritoriale Wirkung. Er gilt für:
- Schweizer Unternehmen, die KI-Systeme in der EU anbieten oder betreiben
- Schweizer Unternehmen, deren KI-Output in der EU verwendet wird
- Schweizer Zulieferer von EU-Unternehmen, die KI-Systeme einsetzen
Pflicht zum Adversarial Testing
Artikel 9 des EU AI Act verlangt für Hochrisiko-KI-Systeme:
- Systematische Risikoanalyse unter Berücksichtigung adversarialer Angriffe
- Robustheitstests gegen gezielte Manipulation (Red Teaming)
- Dokumentation der durchgeführten Sicherheitsprüfungen
- Regelmässige Wiederholung über den gesamten Lebenszyklus
Strafen
| Verstoss | Maximale Strafe |
|---|---|
| Verbotene KI-Praktiken | EUR 35 Mio. oder 7 % Umsatz |
| Nichteinhaltung der Anforderungen für Hochrisiko-KI | EUR 15 Mio. oder 3 % Umsatz |
| Falsche Angaben gegenüber Behörden | EUR 7,5 Mio. oder 1 % Umsatz |
Ausführliche Analyse: EU AI Act: Auswirkungen auf Schweizer Unternehmen
nDSG und KI: Datenschutzrechtliche Implikationen
Das Schweizer Datenschutzgesetz (nDSG) stellt spezifische Anforderungen an die Nutzung von KI-Systemen, die Personendaten verarbeiten:
Transparenzpflicht
Betroffene Personen müssen darüber informiert werden, wenn ihre Daten durch KI-Systeme verarbeitet werden. Dies gilt insbesondere für:
- KI-gestütztes Profiling (z. B. automatisiertes Bewerbungsscreening)
- Automatisierte Entscheidungsfindung
- Übermittlung von Personendaten an KI-Anbieter (Auftragsverarbeitung)
Datenschutz-Folgenabschätzung
Für KI-Anwendungen, die ein «hohes Risiko» für die Persönlichkeitsrechte der Betroffenen darstellen, ist eine Datenschutz-Folgenabschätzung (DSFA) erforderlich. Dies betrifft typischerweise:
- KI-basiertes Profiling von Kunden oder Mitarbeitenden
- Automatisierte Kreditentscheidungen
- KI-gestützte Videoüberwachung
- Gesundheitsbezogene KI-Anwendungen
Datenübermittlung ins Ausland
Die Nutzung von KI-Diensten US-amerikanischer Anbieter (OpenAI, Anthropic, Google, Microsoft) bedeutet eine Datenübermittlung in ein Land ohne «angemessenes Datenschutzniveau» im Sinne des nDSG. Dies erfordert zusätzliche Schutzmassnahmen (Standardvertragsklauseln, Risikoprüfung).
Vertiefung: nDSG Compliance und Cybersecurity
Die 25-Punkte-KI-Sicherheitscheckliste
Diese Checkliste deckt die wichtigsten Massnahmen für KI-Sicherheit in KMU ab. Sie ist in drei Stufen organisiert — von sofort umsetzbaren Massnahmen bis zu strategischen Initiativen.
Die vollständige, detaillierte Checkliste mit Implementierungsanleitungen finden Sie auf redteampartner.com/resources/ai-security-checklist/.
Stufe 1: Sofort (diese Woche)
- 1. KI-Inventar erstellen: Dokumentieren Sie alle KI-Tools, die in Ihrem Unternehmen genutzt werden
- 2. Shadow-AI-Befragung: Führen Sie eine anonyme Umfrage zur KI-Nutzung durch
- 3. Berechtigungen prüfen: Welche Daten und Systeme können Ihre KI-Tools erreichen?
- 4. Systemprompts prüfen: Enthalten Systemprompts sensible Informationen?
- 5. API-Keys sichern: Sind API-Schlüssel in Projektdateien oder Konfigurationen exponiert?
- 6. Datenklassifizierung: Welche Daten dürfen in KI-Systeme eingegeben werden, welche nicht?
- 7. Notfall-Kontakte: Wer ist Ansprechperson bei einem KI-Sicherheitsvorfall?
- 8. KI-Updates prüfen: Sind alle KI-Tools auf dem neuesten Stand? (CVE-2025-59536!)
Stufe 2: Kurzfristig (diesen Monat)
- 9. KI-Nutzungsrichtlinie erstellen: Klare Regeln für die KI-Nutzung im Unternehmen
- 10. Enterprise-KI bereitstellen: Sichere Enterprise-Versionen statt persönliche Accounts
- 11. Eingabefilter implementieren: Grundlegende Prompt-Injection-Filter für kundenseitige KI
- 12. Output-Validierung: Prüfung von KI-Ausgaben auf sensible Daten
- 13. Least-Privilege-Prinzip: KI-Berechtigungen auf das Minimum reduzieren
- 14. Logging aktivieren: KI-Interaktionen protokollieren (mit Datenschutz!)
- 15. Mitarbeiterschulung: Grundlagen der KI-Sicherheit für alle KI-Nutzenden
- 16. Code-Review-Prozess: Für KI-generierten Code (Claude Code, Copilot)
- 17. nDSG-Prüfung: Ist Ihre KI-Nutzung datenschutzkonform?
Stufe 3: Strategisch (dieses Quartal)
- 18. KI Red Teaming: Professionelles adversariales Testing Ihrer KI-Systeme
- 19. EU AI Act Compliance: Prüfung und Dokumentation der Compliance-Anforderungen
- 20. KI-Governance-Framework: Prozesse für Einführung, Betrieb und Dekommissionierung von KI-Tools
- 21. Incident-Response-Plan: Spezifischer Plan für KI-Sicherheitsvorfälle
- 22. Continuous Monitoring: Permanente Überwachung der KI-Tool-Nutzung und -Sicherheit
- 23. Vendor-Assessment: Sicherheitsbewertung aller KI-Anbieter
- 24. DLP-Integration: Data Loss Prevention mit KI-spezifischen Regeln
- 25. Regelmässige Re-Evaluation: Quartalsweise Überprüfung der KI-Sicherheitslage
Wann Sie KI Red Teaming brauchen
KI Red Teaming ist die einzige Methode, die KI-spezifische Schwachstellen systematisch aufdeckt. Aber nicht jedes Unternehmen braucht es sofort. Die folgende Entscheidungshilfe zeigt, wann KI Red Teaming Priorität haben sollte:
Sofort notwendig (hohes Risiko)
Sie brauchen KI Red Teaming jetzt, wenn Sie:
- KI-Systeme mit Zugriff auf sensible Kundendaten betreiben
- KI-Agenten mit Tool-Zugriff (E-Mail, CRM, Dateisystem) einsetzen
- Kundenseitige KI-Systeme (Chatbots, virtuelle Assistenten) betreiben
- In regulierten Branchen tätig sind (Finanzen, Gesundheit, Versicherungen)
- KI-Produkte oder -Dienstleistungen in der EU anbieten (EU AI Act)
- Einen KI-Sicherheitsvorfall hatten oder vermuten
Kurzfristig empfohlen (mittleres Risiko)
Sie sollten KI Red Teaming innerhalb der nächsten 3-6 Monate planen, wenn Sie:
- KI-Tools für interne Prozesse nutzen (auch ChatGPT, Claude, Copilot)
- Signifikante Shadow-AI-Nutzung vermuten
- KI für HR-Prozesse oder Kundenanalysen einsetzen
- Personaldaten oder Finanzdaten in KI-Systeme eingeben
Perspektivisch relevant (geringeres Risiko)
Sie sollten KI Red Teaming beobachten und für das nächste Budget planen, wenn Sie:
- KI-Tools nur vereinzelt und für nicht-sensible Aufgaben nutzen
- Keine kundenseitigen KI-Systeme betreiben
- Nicht in regulierten Branchen tätig sind
- Keine EU-Geschäftstätigkeit haben
Vertiefung: KI Red Teaming: Warum Ihre KI-Systeme getestet werden müssen
Vergleich mit traditionellen Tests: KI Red Teaming vs. Penetrationstest
Was KI Red Teaming kostet
Die Kosten für KI-Sicherheitsdienstleistungen in der Schweiz:
| Leistung | Preisspanne (CHF) | Dauer | Empfohlen für |
|---|---|---|---|
| KI-Konfigurationsreview | 8’000 – 20’000 | 3–5 Tage | Alle KMU mit KI-Systemen |
| KI-Penetrationstest | 15’000 – 40’000 | 5–10 Tage | KMU mit kundenseitiger KI |
| Umfassendes KI Red Teaming | 40’000 – 80’000 | 10–20 Tage | Regulierte Branchen, EU-Geschäft |
ROI-Berechnung
Der McKinsey-Lilli-Vorfall wird auf einen Schaden im dreistelligen Millionenbereich geschätzt. Selbst für KMU liegen die durchschnittlichen Kosten eines datenbezogenen Sicherheitsvorfalls bei CHF 4,2 Millionen (IBM, 2025). Ein KI-Konfigurationsreview für CHF 8’000-20’000 bietet demnach ein ROI-Verhältnis von 200:1 oder besser.
Zum Vergleich: Ein klassischer Penetrationstest kostet CHF 5’000-150’000 und ein Red Teaming CHF 11’900-80’000.
Detaillierte Kostenübersicht: Was kostet ein KI-Security-Audit?
KI-Sicherheit als Wettbewerbsvorteil
KI-Sicherheit ist nicht nur ein Kostenfaktor — sie kann ein Differenzierungsmerkmal sein:
- Kundenvertrauen: Nachweisbare KI-Sicherheit stärkt das Vertrauen von Kunden und Partnern
- Regulatorische Vorsorge: Wer heute in KI-Sicherheit investiert, ist für EU AI Act und kommende Regulierungen vorbereitet
- Wettbewerbsvorteil: In Ausschreibungen und Partnerschaften wird KI-Sicherheit zunehmend zum Differenzierungsmerkmal
- Risikoreduktion: Jeder verhinderte Vorfall spart ein Vielfaches der Investitionskosten
Ressourcen und nächste Schritte
Detailartikel auf CybersecuritySwitzerland
- KI Red Teaming: Warum Ihre KI-Systeme getestet werden müssen
- Prompt Injection: Die grösste Schwachstelle
- Claude Code & Copilot: Neue Angriffsfläche
- Shadow AI: Risiken für KMU
- ChatGPT und Cybersecurity für KMU
- KI-basierte Cyberangriffe
- KI-Phishing
- EU AI Act Schweiz
- KI Red Teaming vs. Penetrationstest
- KI-Security-Audit Kosten
Externe Ressourcen
- OWASP Top 10 for LLM Applications
- MITRE ATLAS — Adversarial Threat Landscape for AI Systems
- NCSC — Nationales Zentrum für Cybersicherheit
- EU AI Act Volltext
- KI-Sicherheitscheckliste (vollständig)
Professionelle Unterstützung
Für professionelles KI Red Teaming und KI-Sicherheitsberatung in der Schweiz empfehlen wir:
- RedTeam Partners — Spezialisiert auf KI Red Teaming, OWASP Top 10 for LLM, EU AI Act Compliance
- RedTeam Partners Schweiz — Schweizer Anlaufstelle mit lokalem Verständnis für nDSG und Schweizer KMU-Bedürfnisse
Allgemeine Cybersecurity-Checkliste: Cybersecurity Checkliste für KMU
Fazit und nächste Schritte
KI-Sicherheit ist 2026 keine Zukunftsmusik — sie ist eine Gegenwartspflicht. 67 Prozent der Schweizer KMU nutzen bereits KI, der EU AI Act verlangt ab August 2026 adversariales Testing, und dokumentierte Vorfälle wie McKinsey Lilli zeigen die realen Konsequenzen mangelnder KI-Sicherheit.
Ihr nächster Schritt: Beginnen Sie mit Punkt 1 der Checkliste — erstellen Sie ein Inventar aller KI-Tools in Ihrem Unternehmen. Allein die Sichtbarkeit über die tatsächliche KI-Nutzung ist ein enormer Sicherheitsgewinn. Arbeiten Sie sich dann systematisch durch die Checkliste — von den Sofortmassnahmen zu den strategischen Initiativen.
Wenn Sie bei der Umsetzung Unterstützung brauchen oder ein KI-Security-Assessment planen, stehen spezialisierte Anbieter zur Verfügung. Die Investition lohnt sich: Prävention kostet einen Bruchteil der Reaktion.