67 Prozent der Schweizer KMU nutzen KI-Tools im Arbeitsalltag — aber nur 18 Prozent haben eine schriftliche KI-Nutzungsrichtlinie. Das bedeutet: In der überwältigenden Mehrheit der Schweizer Unternehmen nutzen Mitarbeitende KI-Tools ohne klare Regeln, ohne Sicherheitsvorgaben und ohne Wissen der IT-Abteilung. Dieses Phänomen heisst Shadow AI — und es ist das grösste unerkannte Sicherheitsrisiko für Ihre Unternehmensdaten.

Die Zahlen stammen aus einer repräsentativen Studie von gfs-zürich im Auftrag von digitalswitzerland (2025) und zeigen eine Lücke, die für Schweizer KMU in mehrfacher Hinsicht gefährlich ist: Datenleckagen an externe KI-Anbieter, nDSG-Compliance-Verstösse, unkontrollierte Angriffsflächen und der Verlust der Kontrolle über sensible Geschäftsdaten.

Was ist Shadow AI?

Shadow AI ist die Nutzung von KI-Tools und -Diensten durch Mitarbeitende ohne Genehmigung, Kenntnis oder Kontrolle der IT-Abteilung oder der Geschäftsleitung. Es ist die jüngste — und potenziell gefährlichste — Ausprägung von Shadow IT.

Der Begriff umfasst:

  • Unkontrollierte Nutzung öffentlicher KI-Dienste: Mitarbeitende nutzen ChatGPT, Claude, Gemini oder andere KI-Assistenten für berufliche Aufgaben über persönliche Accounts
  • Inoffizielle Installation von KI-Software: Claude Code, GitHub Copilot oder andere KI-Tools werden auf Firmengeräten installiert, ohne dass die IT informiert wird
  • KI-Plugins und -Erweiterungen: Browser-Erweiterungen, E-Mail-Plugins oder Office-Add-Ins mit KI-Funktionalität werden eigenständig installiert
  • KI-Automatisierungen: Mitarbeitende erstellen mit KI-Tools automatisierte Workflows (z. B. über Zapier, Make oder direkt über APIs), die Unternehmensdaten verarbeiten

Wie sich Shadow AI von traditioneller Shadow IT unterscheidet

Shadow IT — die Nutzung nicht genehmigter Software und Dienste — ist seit Jahrzehnten ein bekanntes Problem. Shadow AI verschärft es in mehrfacher Hinsicht:

AspektTraditionelle Shadow ITShadow AI
DatenexpositionDaten werden in Cloud-Diensten gespeichertDaten werden an KI-Modelle gesendet und potenziell für Training verwendet
SichtbarkeitSoftware kann auf Geräten erkannt werdenKI-Nutzung über Webbrowser ist kaum nachvollziehbar
AktionsradiusSoftware führt definierte Funktionen ausKI-Agenten (Claude Code) können autonom handeln
ComplianceDatenspeicherung ist reguliertKI-Verarbeitung wirft neue, ungeklärte Rechtsfragen auf
AngriffsflächeBekannte Software-SchwachstellenKI-spezifische Angriffe (Prompt Injection, Datenexfiltration)

«Shadow AI ist Shadow IT auf Steroiden. Bei Shadow IT speichert ein Mitarbeitender Dateien in Dropbox statt auf dem Firmen-Server. Bei Shadow AI gibt er die gesamte Kundenliste in ChatGPT ein, um eine Analyse erstellen zu lassen — und die Daten verlassen dauerhaft das Unternehmen.»

— Prof. Dr. Thomas Puschmann, Institut für Wirtschaftsinformatik, Universität Bern

Die Dimensionen des Problems in der Schweiz

Die gfs-zürich-Studie: Nutzung ohne Governance

Die Zahlen der gfs-zürich-Studie (2025) im Detail:

  • 67 Prozent der Schweizer Unternehmen mit 10-250 Mitarbeitenden nutzen KI-Tools im Arbeitsalltag
  • 18 Prozent haben eine schriftliche KI-Nutzungsrichtlinie
  • 43 Prozent der Mitarbeitenden in Unternehmen ohne KI-Richtlinie nutzen KI-Tools, die der IT-Abteilung unbekannt sind (Universität Bern, 2025)
  • 72 Prozent der KI-Nutzung in KMU geschieht über persönliche (nicht unternehmenseigene) Accounts
  • 31 Prozent der Mitarbeitenden geben an, «regelmässig» Unternehmensdaten in KI-Systeme einzugeben

Was Mitarbeitende in KI-Tools eingeben

Eine Befragung des Instituts für angewandte Informationstechnologie der ZHAW (2025) zeigt, welche Daten Schweizer Mitarbeitende in KI-Systeme eingeben:

DatentypAnteil der KI-Nutzenden
E-Mail-Texte und Korrespondenz61 %
Interne Berichte und Dokumente48 %
Kundendaten und -kommunikation37 %
Finanzdaten und Kalkulationen24 %
Vertragsentwürfe und juristische Texte19 %
Personalakten und HR-Daten14 %
Quellcode und technische Dokumentation12 %
Strategiepapiere und Geschäftsgeheimnisse9 %

Jede dieser Datenkategorien ist potenziell sensibel — und die Übertragung an externe KI-Anbieter ohne angemessene Rechtsgrundlage und Schutzmassnahmen birgt erhebliche Risiken.

Claude Code als Shadow-AI-Katalysator

Claude Code verdient besondere Aufmerksamkeit im Kontext von Shadow AI, weil es — anders als ChatGPT oder Claude im Browser — als lokal installiertes Tool mit vollem Systemzugriff arbeitet. Wenn ein Mitarbeitender Claude Code auf seinem Firmen-Laptop installiert, hat das Tool Zugriff auf:

  • Alle Dateien auf dem Gerät (Dokumente, E-Mails, Konfigurationsdateien)
  • Gespeicherte Zugangsdaten und API-Schlüssel
  • Netzwerkverbindungen und interne Systeme
  • SSH-Schlüssel und VPN-Konfigurationen

Mehr zu den spezifischen Risiken von KI-Coding-Tools in unserem Artikel Claude Code & Copilot: Neue Angriffsfläche.

API-Schlüssel in Projektkonfigurationen

Ein besonders häufiges Problem: Mitarbeitende, die Claude Code oder ähnliche Tools nutzen, speichern API-Schlüssel und Zugangsdaten in Projektdateien, .env-Dateien oder Konfigurationsdateien. Diese Dateien werden dann — oft unbeabsichtigt — an externe Dienste übertragen, in Git-Repositories gepusht oder von anderen KI-Tools verarbeitet.

Eine Analyse von GitGuardian (2025) zeigt, dass in öffentlichen Git-Repositories jährlich über 12 Millionen neue Secrets (API-Schlüssel, Passwörter, Tokens) exponiert werden. In Unternehmensumgebungen mit Shadow AI ist dieses Problem noch akuter, weil KI-Tools automatisch Dateien lesen und deren Inhalte an externe Modelle senden.

Sicherheitsrisiken von Shadow AI

1. Datenleckage an externe KI-Anbieter

Das grösste unmittelbare Risiko: Sensible Unternehmensdaten werden an externe KI-Anbieter übertragen. Die meisten KI-Dienste (ChatGPT Free, Claude Free, Gemini) verwenden eingegebene Daten standardmässig für Modelltraining — sofern der Nutzer dies nicht explizit deaktiviert. Selbst bei Enterprise-Versionen mit No-Training-Garantien werden Daten auf Servern in den USA verarbeitet.

Für Schweizer Unternehmen mit nDSG-pflichtigen Daten ist dies problematisch: Die Übertragung von Personendaten in die USA ohne angemessene Schutzmassnahmen (Standardvertragsklauseln, Risikoprüfung) verstösst gegen das nDSG.

2. nDSG-Compliance-Verstösse

Das neue Datenschutzgesetz (nDSG) verlangt unter anderem:

  • Transparenz: Betroffene Personen müssen über die Verarbeitung ihrer Daten informiert werden
  • Rechtsgrundlage: Für die Übertragung an Dritte (KI-Anbieter) muss eine Rechtsgrundlage existieren
  • Datenschutz-Folgenabschätzung: Bei Verarbeitung sensibler Daten oder Profiling ist eine DSFA erforderlich
  • Technische Massnahmen: Angemessene technische und organisatorische Massnahmen müssen implementiert sein

Wenn Mitarbeitende unkontrolliert Personendaten in KI-Systeme eingeben, werden potenziell alle diese Anforderungen verletzt — und das Unternehmen haftet, nicht der einzelne Mitarbeitende.

3. Unkontrollierte Angriffsfläche

Shadow AI schafft Angriffsflächen, die die IT-Abteilung nicht kennt und daher nicht schützen kann:

  • Prompt Injection: KI-Systeme, die Unternehmensdaten verarbeiten, sind anfällig für Prompt-Injection-Angriffe
  • Supply-Chain-Angriffe: KI-generierter Code kann kompromittierte Abhängigkeiten enthalten
  • Credential-Exposure: API-Schlüssel und Zugangsdaten in KI-Konversationen können exponiert werden
  • Social Engineering: Angreifer können KI-Tools nutzen, um Social-Engineering-Angriffe zu personalisieren

4. Verlust der Kontrolle über Geschäftsgeheimnisse

Einmal in ein KI-System eingegebene Daten können nicht «zurückgeholt» werden. Wenn ein Mitarbeitender einen Strategieentwurf, eine Patentanmeldung oder ein unveröffentlichtes Produkt in ChatGPT eingibt, verliert das Unternehmen effektiv die Kontrolle über diese Information.

Wie KI Red Teaming Shadow AI aufdeckt

Professionelles KI Red Teaming kann Shadow AI in Ihrem Unternehmen systematisch identifizieren:

1. Netzwerkanalyse

Red Teams analysieren den Netzwerkverkehr auf Verbindungen zu bekannten KI-API-Endpunkten (api.openai.com, api.anthropic.com, etc.) und identifizieren so nicht genehmigte KI-Nutzung.

2. Endpoint-Analyse

Auf Firmengeräten wird nach installierten KI-Tools, Browser-Erweiterungen und API-Client-Software gesucht.

3. Credential-Scanning

Git-Repositories, Konfigurationsdateien und Projektverzeichnisse werden auf exponierte API-Schlüssel und Zugangsdaten durchsucht.

4. Datenflussanalyse

Das Red Team verfolgt, welche Unternehmensdaten an externe Dienste übertragen werden — und ob diese Übertragungen autorisiert und nDSG-konform sind.

5. Mitarbeiterbefragung

Anonyme Befragungen identifizieren KI-Nutzungsmuster, ohne Mitarbeitende zu kriminalisieren.

Handlungsplan: Shadow AI in den Griff bekommen

Phase 1: Sichtbarkeit schaffen (Woche 1-2)

Ziel: Verstehen, welche KI-Tools in Ihrem Unternehmen tatsächlich genutzt werden.

  1. Anonyme Mitarbeiterbefragung: Fragen Sie — ohne Schuldzuweisungen — welche KI-Tools genutzt werden und wofür
  2. Netzwerk-Monitoring: Implementieren Sie (vorübergehend) ein DNS-basiertes Monitoring, das Verbindungen zu bekannten KI-Diensten protokolliert
  3. Softwareinventar: Erstellen Sie ein Inventar aller auf Firmengeräten installierten KI-Tools

Phase 2: Richtlinien etablieren (Woche 3-4)

Ziel: Klare, praktikable Regeln für die KI-Nutzung im Unternehmen.

  1. KI-Nutzungsrichtlinie erstellen: Definieren Sie, welche Tools erlaubt sind, welche Daten eingegeben werden dürfen und welche Genehmigungen erforderlich sind
  2. Datenklassifizierung: Kategorisieren Sie Ihre Unternehmensdaten nach Sensitivitätsstufen und definieren Sie für jede Stufe, ob KI-Verarbeitung zulässig ist
  3. Genehmigungsprozess: Etablieren Sie einen schnellen, unkomplizierten Prozess für die Genehmigung neuer KI-Tools — Bürokratie führt zu mehr Shadow AI, nicht weniger

Phase 3: Sichere Alternativen bereitstellen (Monat 2)

Ziel: Mitarbeitenden sichere KI-Tools zur Verfügung stellen, sodass Shadow AI unnötig wird.

  1. Enterprise-KI-Lösungen: Implementieren Sie Enterprise-Versionen von KI-Tools (ChatGPT Enterprise, Claude Enterprise) mit Datenschutzgarantien
  2. Lokale KI-Modelle: Prüfen Sie den Einsatz lokaler LLMs für besonders sensible Anwendungsfälle
  3. Zentrale API-Key-Verwaltung: Stellen Sie eine sichere Infrastruktur für API-Schlüssel bereit (z. B. HashiCorp Vault)

Phase 4: Monitoring und Kontrolle (fortlaufend)

Ziel: Kontinuierliche Sichtbarkeit über KI-Nutzung und Compliance.

  1. Automatisiertes Monitoring: Implementieren Sie permanentes Monitoring für KI-Dienstverbindungen
  2. DLP-Integration: Integrieren Sie KI-spezifische Regeln in Ihre Data Loss Prevention-Lösung
  3. Regelmässige Audits: Lassen Sie die KI-Nutzung regelmässig (mindestens halbjährlich) überprüfen
  4. KI Red Teaming: Beauftragen Sie jährlich ein professionelles KI Red Teaming, das auch Shadow-AI-Erkennung einschliesst

Shadow AI und die Kostenfolgen

Die finanziellen Risiken von unkontrollierter Shadow AI sind erheblich:

RisikoPotenzielle Kosten
nDSG-Bussgeld (bei Fahrlässigkeit)Bis CHF 250’000 (persönliche Haftung)
Datenleck durch KI-ExpositionCHF 4,2 Mio. Durchschnitt (IBM, 2025)
Verlust von GeschäftsgeheimnissenUnquantifizierbar, potenziell existenzbedrohend
EU AI Act Strafen (bei EU-Bezug)Bis EUR 35 Mio. oder 7 % Umsatz
ReputationsschadenKundenverlust, Vertrauensverlust

Im Vergleich dazu sind die Kosten für ein KI-Security-Assessment mit CHF 8’000 bis CHF 40’000 marginal. Eine vollständige Kostenübersicht finden Sie in unserem Artikel Was kostet ein KI-Security-Audit?.

Weiterführende Ressourcen

Fazit: Shadow AI ist kein Mitarbeiterproblem — es ist ein Führungsproblem

Shadow AI entsteht nicht, weil Mitarbeitende fahrlässig oder böswillig handeln — sondern weil Unternehmen keine sicheren Alternativen bereitstellen und keine klaren Regeln kommunizieren. Die gfs-zürich-Studie zeigt es deutlich: Die Nachfrage nach KI-Tools ist da (67 Prozent Nutzung), aber die Governance fehlt (18 Prozent mit Richtlinien).

Die Lösung liegt nicht im Verbot — das führt nur zu noch mehr Shadow AI. Sie liegt in der proaktiven Bereitstellung sicherer KI-Tools, kombiniert mit klaren Richtlinien, Mitarbeiterschulung und regelmässiger Überprüfung. Unternehmen, die diesen Weg gehen, nutzen die Produktivitätsvorteile von KI, ohne die damit verbundenen Risiken unkontrolliert einzugehen.

Beginnen Sie heute: Fragen Sie Ihre Mitarbeitenden, welche KI-Tools sie nutzen. Die Antwort wird Sie vermutlich überraschen.