Deepfake-Betrug ist keine Zukunftsdrohung mehr: Im Jahr 2024 überwies ein Finanzverantwortlicher in Hongkong nach einer gefälschten Videokonferenz mit seinem vermeintlichen CEO und weiteren Führungskräften umgerechnet 25 Millionen US-Dollar — alle Teilnehmer waren KI-generierte Fälschungen. Laut dem Bericht des Schweizer Versicherungsverbands (SVV) 2025 haben sich deepfake-bezogene Versicherungsschäden gegenüber dem Vorjahr mehr als verdoppelt. Für Schweizer KMU ist Deepfake-Betrug heute eine reale, unmittelbare Bedrohung, die herkömmliche Sicherheitsschulungen und -protokolle fundamental in Frage stellt — weil das menschliche Urteilsvermögen als letzte Verteidigungslinie versagt.

Wie akut diese Entwicklung ist, zeigt eine Meldung vom 17. März 2026: Unter dem Titel «Deepfake per Mausklick: Musks KI zieht jetzt Kinder aus» berichtet 20 Minuten, dass die Einstiegshürde zur Erstellung von Deepfakes praktisch auf null gesunken ist. Deepfake-Angriffe sind damit nicht länger ein Werkzeug staatlicher Akteure oder hochspezialisierter Cyberkrimineller — sie sind für jedermann mit wenigen Klicks umsetzbar. Für Schweizer KMU bedeutet das: Die Bedrohung durch Deepfake-Betrug ist unmittelbarer denn je, weil potenzielle Angreifer weder technisches Wissen noch grosse Ressourcen benötigen.

Was ist Deepfake-Betrug?

Deepfakes sind KI-generierte Fälschungen von Audio-, Video- oder Bildinhalten, die echten Personen täuschend ähnlich sehen und klingen. Die zugrundeliegende Technologie — sogenannte Generative Adversarial Networks (GANs) und diffusionsbasierte KI-Modelle — war vor wenigen Jahren noch ausschliesslich hochspezialisierten Forschern zugänglich. Heute ist sie in Form benutzerfreundlicher Apps und Cloud-Dienste für jedermann verfügbar, teils kostenlos.

Beim Deepfake-Betrug im Unternehmenskontext werden diese Technologien eingesetzt, um die Identität von Führungspersonen, Finanzverantwortlichen, Geschäftspartnern oder Behördenvertretern zu fälschen. Das Ziel ist in der Regel finanzieller Natur: Mitarbeitende werden zu Überweisungen bewegt, zur Herausgabe sensibler Zugangsdaten veranlasst oder dazu gebracht, sicherheitskritische Prozesse zu umgehen.

Die entscheidende Herausforderung: Deepfakes sind für das untrainierte Auge und Ohr praktisch nicht von echten Personen zu unterscheiden. Wer einen Videoanruf von seinem CEO erhält, der ihn zu einer dringenden Überweisung auffordert, hat kaum ein zuverlässiges Mittel, die Echtheit in Echtzeit zu überprüfen.

Der Hongkong-Fall: 25 Millionen Dollar in einer Videokonferenz verloren

Der bislang öffentlich bekanntgewordene Fall ereignete sich im Februar 2024 in Hongkong. Ein Angestellter des britisch-multinationalen Konzerns Arup erhielt eine E-Mail, die angeblich vom CFO des Unternehmens stammte und eine vertrauliche Transaktion ankündigte. Skeptisch zunächst, wurde der Mitarbeitende zu einer Videokonferenz eingeladen — in der er seinen CFO, den CEO und mehrere andere Führungskräfte sah und hörte.

Alle waren gefälscht. Angreifer hatten aus öffentlich verfügbaren Videomaterial der echten Führungskräfte KI-generierte Echtzeit-Deepfakes erstellt. Der Mitarbeitende, der sich durch die visuelle Bestätigung vergewissert fühlte, überwies in 15 einzelnen Transaktionen insgesamt 200 Millionen Hongkong-Dollar — umgerechnet rund 25 Millionen US-Dollar. Das Geld war unwiederbringlich verschwunden.

Dieser Fall ist kein Ausreisser. Interpol verzeichnet seit 2024 eine steil ansteigende Kurve bei gemeldeten Deepfake-Betrugsfällen in Unternehmen. Die Dunkelziffer ist erheblich: Viele Unternehmen melden solche Vorfälle nicht, um Reputationsschäden zu vermeiden.

Die Technologie hinter Deepfakes

Stimm-Klonen

Um die Stimme einer Person zu klonen, reichen mittlerweile wenige Sekunden authentisches Audiomaterial aus. Öffentliche Reden, Podcasts, YouTube-Videos, Interviews — all das ist Material, das KI-Systeme nutzen können, um eine überzeugende Stimme zu generieren. Die geklonte Stimme kann dann in Echtzeit sprechen, was immer der Angreifer ihr eingibt, einschliesslich Dialekten und charakteristischen Sprachmustern der Zielperson.

Für Schweizer KMU bedeutet das: Jeder CEO oder Finanzverantwortliche, der öffentlich aufgetreten ist — bei Branchen-Events, in Medien, in öffentlich zugänglichen Webinaren — liefert unwissentlich Trainingsmaterial für potenzielle Angreifer.

Echtzeit-Video-Deepfakes

Was noch vor zwei Jahren mehrere Stunden Rechenzeit benötigte, gelingt heute in Echtzeit: KI-Systeme können live laufende Videostreams in Echtzeit so manipulieren, dass das Gesicht einer anderen Person auf dem Bild erscheint. Bei Videoanrufen über Teams, Zoom oder andere Plattformen ist dies mit handelsüblicher Hardware und frei verfügbaren Werkzeugen umsetzbar.

Die Erkennungsmerkmale, auf die Sicherheitsexperten noch 2023 hinwiesen — Bildstörungen am Haarrand, unnatürliche Augenbewegungen, verzögertes Lippensynchronisation — werden mit jeder Modellgeneration weniger zuverlässig.

Bild-Deepfakes für Dokumentenfälschung

Neben Audio und Video werden KI-generierte Bilder auch eingesetzt, um gefälschte Ausweisdokumente, Unterschriften oder offizielle Dokumente zu erstellen. Dies erweitert den Anwendungsbereich von Deepfakes über Videokonferenzen hinaus auf alle Kontexte, in denen visuelle Identitätsverifikation stattfindet.

Deepfake-Betrug in der Schweiz: Aktuelle Lage

Das NCSC erhielt 2025 erstmals eine signifikante Anzahl von Meldungen, die explizit Deepfake-Elemente nannten. Die Dunkelziffer dürfte erheblich höher sein, weil viele Betroffene nicht wissen, dass ein Deepfake eingesetzt wurde — sie glauben, einem klassischen CEO-Betrug aufgesessen zu sein, ohne die KI-Komponente zu erkennen.

“Deepfake-Betrug verändert die Grundlogik des Vertrauens im Geschäftsalltag. Wenn ich nicht mehr sicher sein kann, dass das Gesicht und die Stimme meines Gegenübers echt sind, bricht ein fundamentales Element der Kommunikation zusammen. Für Unternehmen ist das eine existenzielle Herausforderung.”

— Prof. Dr. Aurelia Tanner, Institut für Wirtschaftsinformatik, Universität St. Gallen (HSG)

Besonders betroffen sind laut NCSC KMU in folgenden Branchen: Finanzdienstleistungen, Bauwesen und Immobilien (hohe Transaktionsvolumina), IT-Dienstleister (Zugang zu Kundensystemen) sowie Handelsunternehmen mit internationalen Geschäftsbeziehungen (komplex, schwer zu verifizieren).

Die Verbindung mit klassischen Social-Engineering-Methoden ist dabei typisch: Deepfakes werden selten allein eingesetzt, sondern als Verstärker innerhalb grösserer Angriffskampagnen, die mit Phishing, Vishing (telefonisches Phishing) und Vorwandkonstruktionen kombiniert werden.

Erkennungsmethoden: Was (noch) funktioniert

Technische Erkennungstools

Es existieren KI-basierte Erkennungssoftware-Lösungen, die Deepfakes in Videos und Audiodateien analysieren. Diese Tools analysieren Metadaten, Kompressionsmuster, biologische Signale (unnatürliches Blinzeln) und andere Anomalien. Ihre Zuverlässigkeit ist jedoch begrenzt und nimmt mit jeder neuen Generation von Deepfake-Modellen ab. Sie sind ein ergänzendes, kein hinreichendes Mittel.

Verhaltensbasierte Auffälligkeiten

Auch wenn ein Deepfake visuell überzeugend ist, können Verhaltensauffälligkeiten Hinweise geben: unübliche Gesprächsführung, Ausweichen bei bestimmten Themen, die die echte Person kennen würde, oder das Beharren auf ungewöhnlichen Kommunikationswegen. Mitarbeitende sollten geschult sein, bei aussergewöhnlichen Anfragen — unabhängig vom augenscheinlichen Absender — skeptisch zu bleiben.

Kontextuelle Überprüfung

Das wichtigste Erkennungsmittel ist nicht Technologie, sondern Prozess: Jede ungewöhnliche finanzielle Anforderung oder Sicherheitsrelevante Handlungsaufforderung muss über einen separaten, verifizierbaren Kanal bestätigt werden — ein direkter Rückruf auf eine bekannte Nummer, nicht auf eine in der betreffenden Kommunikation genannte.

Schutzmassnahmen für Schweizer KMU

1. Vier-Augen-Prinzip für Finanztransaktionen

Jede Überweisung über einem definierten Schwellenwert — empfohlen werden CHF 5’000 oder weniger für KMU — sollte von zwei Personen autorisiert und über zwei separate Kanäle bestätigt werden. Keine Ausnahmen, keine Dringlichkeitsüberbrückungen.

2. Codeworte und Geheimfragen

Etablieren Sie mit Führungspersonen und wichtigen Geschäftspartnern vereinbarte Codeworte oder Geheimfragen, die bei ungewöhnlichen Anfragen abgefragt werden können. Diese Massnahme ist einfach, kostenlos und extrem wirksam gegen Deepfakes, die keine Kenntnis vereinbarter Codes haben.

3. Rückrufprotokolle

Wenn Sie eine dringende Anforderung über Video, Telefon oder E-Mail erhalten, legen Sie auf und rufen Sie die Zielperson über eine verifizierte, Ihnen bereits bekannte Nummer zurück. Verwenden Sie niemals eine in der verdächtigen Kommunikation genannte Nummer.

4. Schulung mit simulierten Deepfake-Szenarien

Mitarbeitende müssen nicht nur wissen, dass Deepfakes existieren — sie müssen erlebt haben, wie überzeugend sie sind, und geübt haben, wie die Schutzmassnahmen in der Praxis angewendet werden. Klassische Schulungen reichen hier nicht. Simulationsbasiertes Training, wie es im Rahmen von Red Teaming eingesetzt wird, ist deutlich wirksamer.

5. Klare Eskalationspfade

Mitarbeitende müssen wissen, an wen sie sich wenden können, wenn sie eine Anfrage als verdächtig einstufen — ohne Angst vor negativen Konsequenzen, wenn sich die Vermutung als falsch herausstellt. Eine Kultur der psychologischen Sicherheit im Umgang mit Sicherheitsbedenken ist entscheidend.

“Deepfakes machen das menschliche Urteilsvermögen als Sicherheitsschicht unzuverlässig. Die Antwort ist nicht, Menschen zu ersetzen, sondern Prozesse zu schaffen, die menschliche Entscheidungen mit technischen und organisatorischen Checks verknüpfen.”

— Andreas Köhler, CISO-Berater, Zürich

Verbindung zu anderen KI-Bedrohungen

Deepfake-Betrug steht nicht isoliert — er ist Teil einer breiteren Landschaft KI-basierter Cyberangriffe, die klassische Sicherheitsannahmen fundamental herausfordern. Oft werden Deepfakes kombiniert mit:

Diese Kombinationsangriffe sind besonders gefährlich, weil sie auf mehreren Ebenen gleichzeitig angreifen und die Zielperson in einem Zustand hoher Konfusion und Zeitdruck in falsche Entscheidungen drängen.

Rechtliche und versicherungsbezogene Aspekte

In der Schweiz gilt: Deepfake-Betrug, der zu finanziellen Verlusten führt, ist in der Regel durch klassische Cyber- oder Vertrauensschadenversicherungen abgedeckt — aber mit wichtigen Einschränkungen. Viele Policen verlangen den Nachweis, dass angemessene Sicherheitsmassnahmen vorhanden waren. Fehlt ein dokumentiertes Vier-Augen-Prinzip oder ein Transaktionsprotokoll, kann der Versicherer die Leistung kürzen oder verweigern.

Das nDSG (neues Datenschutzgesetz) stellt zudem erhöhte Anforderungen, wenn bei einem Deepfake-Angriff Personendaten kompromittiert werden — etwa wenn Zugangsdaten zu Systemen herausgegeben werden. In diesem Fall greift die Meldepflicht gegenüber dem Eidgenössischen Datenschutz- und Öffentlichkeitsbeauftragten (EDÖB).

Wie Red Teaming Deepfake-Resistenz testet

Red Teaming ist der effektivste Weg, um zu erfahren, wie Ihr Unternehmen auf einen echten Deepfake-Angriff reagieren würde — bevor ein echter Angreifer den Test macht. Im Rahmen eines Red-Teaming-Engagements können spezialisierte Sicherheitsexperten:

  • Simulierte Deepfake-Videoanrufe von “Führungspersonen” an Finanzverantwortliche durchführen
  • Testen, ob Rückrufprotokolle und Vier-Augen-Prinzipien tatsächlich angewendet werden
  • Die Awareness und das Urteilsvermögen von Mitarbeitenden unter realistischen Bedingungen messen
  • Kombinationsangriffe simulieren, die Deepfakes mit Phishing und Social Engineering verbinden
  • Den vollständigen Angriffspfad dokumentieren und konkrete Empfehlungen zur Härtung entwickeln

Der Unterschied zu theoretischen Schulungen ist entscheidend: Mitarbeitende erleben, wie überzeugend ein Deepfake sein kann, und haben die Erfahrung gemacht, die Schutzmassnahmen anzuwenden — oder nicht. Dieses experienzielle Lernen verändert Verhalten nachhaltig, wo Schulungsfolien es nicht tun.

Mehr zum Unterschied zwischen Red Teaming und klassischen Sicherheitsüberprüfungen erfahren Sie in unserem Vergleich: Red Teaming vs. Penetrationstest.

Fazit

Deepfake-Betrug hat mit dem Hongkong-Fall von 25 Millionen US-Dollar eindrücklich bewiesen, dass er keine theoretische Bedrohung ist. Die Technologie ist verfügbar, sie verbessert sich rasend schnell, und die Eintrittsbarrieren sinken kontinuierlich. Für Schweizer KMU bedeutet das: Wer heute keine Schutzmassnahmen gegen Deepfake-Betrug implementiert hat, geht ein erhebliches und wachsendes Risiko ein.

Technische Erkennungstools können unterstützen, aber der eigentliche Schutz liegt in robusten Prozessen — Vier-Augen-Prinzip, Rückrufprotokolle, vereinbarte Codeworte — und in Mitarbeitenden, die durch realistische Übung gelernt haben, skeptisch zu sein, egal wie überzeugend die Stimme oder das Gesicht ihres Gegenübers wirkt.

Wissen Sie, ob Ihre Mitarbeitenden einem Deepfake-Angriff widerstehen würden? Mit einem massgeschneiderten Red-Teaming-Engagement testen wir Ihre Widerstandsfähigkeit unter realen Bedingungen — und zeigen Ihnen genau, wo Handlungsbedarf besteht: Jetzt Red Teaming anfragen.