Das Risiko ausgeklügelter Angriffe durch Deepfake-Impersonation steigt. Sind Schutzmaßnahmen wie die biometrische Authentifizierung so sicher, wie sie scheinen? In einer neuen GetApp Studie zur Cybersicherheit in Unternehmen aus allen Größen untersuchen wir, wie IT- und Cybersicherheitsexperten auf die wachsende Bedrohung durch biometrischen Betrug reagieren und schauen uns an, wie sie sich besser schützen können.
In diesem Artikel
- 64 % der leitenden Angestellten waren in den letzten 18 Monaten Opfer einer Cyberattacke
- Wie nutzen Hacker die Gesichts- und Stimmerkennung für Betrug und wie können sich Unternehmen davor schützen
- Sind IT- und Cybersicherheitsexperten aus Deutschland nicht besorgt genug?
- Unternehmen schützen sich durch verbesserte Netzwerksicherheit und Phishing-Schutz sowie häufigere Software-Updates
- Unternehmen sollten weiterhin ihre Sicherheitsvorkehrungen verbessern und Mitarbeiter sensibilisieren
Die Benutzerauthentifizierung ist eine Grundvoraussetzung für identitätsorientierte Sicherheit. Im Gegensatz zu anderen Arten von Authentifizierungsnachweisen sind biometrische Merkmale einer Person inhärent und bieten somit eine eindeutig menschliche Grundlage für die Authentifizierung. Die biometrische Authentifizierung befreit die Person davon, sich ein Passwort zu merken oder einen Token mit sich zu führen, was die Benutzerfreundlichkeit verbessert. Für die Cybersicherheit am Arbeitsplatz werden biometrische Authentifizierungsmethoden für den Zugang zu Geräten, Netzwerken, Software, Ordnern/Dateien und sogar zu Gebäuden oder Räumen in einem Büro genutzt.
Biometrische Sicherheitsmethoden galten zuvor als nahezu unmöglich zu knacken. Hacker haben jedoch durch raffinierte Imitationsangriffen wie Deep Fakes und dem KI-generiertem Identitätsbetrug eine Möglichkeit gefunden, Mitarbeiter und vor allem Führungskräfte in hohen Positionen auszutricksen. Unter den Unternehmen wächst die Sorge, dass KI-gestützte Angriffe mit Deepfakes die Integrität des Identitätsüberprüfungsprozesses untergraben oder ihn im schlimmsten Fall sogar wertlos machen könnten.
GetApp befragte im Mai 2024 2.648 IT- und Cybersicherheitsexperten aus 11 Ländern. Aus Deutschland wurden 243 Teilnehmer befragt, auf deren Antworten sich dieser Artikel fokussiert. Wir haben die Antworten der Fachleute analysiert, um herauszufinden, ob der Anstieg neuer KI-gesteuerter Imitationsangriffe die Unternehmen dazu veranlasst, ihre Cybersicherheit neu zu bewerten. Wir schauen uns an, welche Maßnahmen ergriffen werden können und welche Software dabei helfen kann, um die Sicherheit biometrischer Verifikationsverfahren zu erhöhen und Deepfake-Attacken zu erkennen.
Wichtige Erkenntnisse der deutschen IT- und Cybersicherheitsexperten:
- In den letzten 18 Monaten wurden 27 % leitender Angestelle, die Ziel eines Cyberangriffs waren, Opfer eines KI-gestützten Deepfake-Angriffs.
- 55 % der IT- und Sicherheitsexperten geben an, dass ihre Unternehmen spezielle Maßnahmen zur Abwehr von KI-generierten Deepfake-Angriffen entwickelt hat.
- 45 % haben Bedenken bezüglich des Datenschutzes und 36 % befürchten einen möglichen Identitätsdiebstahl durch die Einführung oder Nutzung biometrischer Authentifizierung.
64 % der leitenden Angestellten waren in den letzten 18 Monaten Opfer einer Cyberattacke
Leitende Angestellte sind das Hauptziel von Angriffen, da sie mehr Zugang auf sensible Daten und Informationen haben und mehr Rechte haben, beispielsweise hohe Transaktionen freizugeben. Wir fragten die IT- und Cybersicherheitsexperten, ob Führungskräfte in ihrem Unternehmen von einer Bedrohung der Cybersicherheit betroffen waren: 32 % berichten von einem Angriff auf Führungskräfte und ebenfalls 32 % von mehreren Attacken.
Von den befragten Sicherheitsexperten, in deren Unternehmen leitende Angestellte in den letzten 18 Monaten von einer Cyberattacke betroffen waren, gaben 27 % an, dass es sich bei der Art des Angriffs um einen KI-gestützten Deepfake-Angriff handelte.
Deepfakes können intern, aber auch auf externe Weise eingesetzt werden, zum Beispiel um den Ruf eines Unternehmens zu schädigen, indem falsche Informationen und gefälschte Videos auf sozialen Medien verbreitet werden.
Der Angreifer sammelt öffentlich verfügbare Videos und Audiodateien von Herrn Müller, um genügend Daten für die Erstellung eines realistisch wirkenden Deepfake-Videos zu haben.
Mit Hilfe von Deepfake-Software und künstlicher Intelligenz generiert der Angreifer ein gefälschtes Video, in dem Herr Müller kontroverse Aussagen macht, die dem Unternehmen schaden. Beispielsweise könnte er im Video gestehen, dass das Unternehmen in illegale Aktivitäten verwickelt ist oder dass die Finanzergebnisse gefälscht wurden. Das gefälschte Video wird über soziale Medien, gefälschte Nachrichtenwebsites und per E-Mail an Investoren und wichtige Geschäftspartner verbreitet. Der Aktienkurs des Technologieunternehmens fällt rapide, da Investoren ihre Anteile verkaufen, um Verluste zu vermeiden.
Wie das Unternehmen am besten reagiert:
1. Krisenmanagement
Das Unternehmen veröffentlicht eine offizielle Stellungnahme und legt Beweise vor, die das Video als Fälschung entlarven. In diesem Fall würde Herr Müller die Finanzergebnisse veröffentlichen und auf Echtheit überprüfen lassen, um zu zeigen, dass diese nicht gefälscht wurden. Herr Müller hält eine Pressekonferenz, um die Öffentlichkeit und die Investoren zu beruhigen. Er betont die Sicherheitsmaßnahmen des Unternehmens und arbeitet eng mit Cybersecurity-Experten und Strafverfolgungsbehörden zusammen, um den Ursprung des Angriffs zu ermitteln und die Verantwortlichen zur Rechenschaft zu ziehen.
2. Langfristige Maßnahmen
Das Unternehmen investiert in Technologien zur Erkennung und Abwehr von Deepfakes, um zukünftige Angriffe zu verhindern. Diese Programme nutzen fortschrittliche KI-Algorithmen, um das gefakte Video zu analysieren und mit echten Videos zu vergleichen und so Ungereimtheiten zu erkennen. Es wird ein umfassender Kommunikationsplan entwickelt, um in ähnlichen Situationen schneller und effektiver reagieren zu können.
Wie nutzen Hacker die Gesichts- und Stimmerkennung für Betrug und wie können sich Unternehmen davor schützen
Hacker sind nicht mehr nur an Passwörtern interessiert, sondern stehlen biometrische Daten, um Fälschungen zu erstellen und Mitarbeiter auszutricksen, indem sie ihnen bekannte Personen nachahmen und sich Zugang verschaffen, oder um direkt in Systeme einzubrechen.
Es besteht kaum ein Zweifel daran, dass Biometrie ein beliebtes Mittel ist, um den Zugang zu Unternehmenssystemen zu schützen. Biometrische Daten sind in deutschen Unternehmen nach wie vor weit verbreitet. Die Ergebnisse unserer Umfrage zur Cybersicherheit von Führungskräften zeigen, dass knapp die Hälfte der Befragten (49 %) in Unternehmen arbeiten, in denen der Einsatz biometrischer Authentifizierung vom Arbeitgeber vorgeschrieben ist, um die Cybersicherheit zu erhöhen (das liegt etwas unter dem weltweiten Durchschnitt aller in dieser Studie befragten Länder von 53 %).
Die mit Abstand meistgenutze Methode der Authentifizierung ist der Fingerabdruck, diese ist auch die Sicherste. Deepfakes sind vollständig digital, so dass es viel schwieriger ist, Fingerabdruckscanner auszutricksen.
Die Gesichtserkennung kann leichter gehackt werden. Deepfakes nutzen Techniken der künstlichen Intelligenz, um sehr realistische Videos zu erstellen, indem sie das Gesicht einer Person durch das einer anderen Person ersetzen. Da Deepfakes darauf spezialisiert sind Gesichtserkennungstechnologien auszutricksen, können diese den Betrug nicht erkennen.
Stimmaktivierte biometrische Geräte sind für Betrüger schwieriger zu überlisten, als die Gesichtserkennung. Sie kombinieren häufig die Sprachaktivierung mit neu generierten Authentifizierungsfragen, die die KI nicht vorher herausfinden kann. Fortschrittliche Sicherheitssysteme können auch auf Tonschwankungen achten, die nur von den Stimmbändern erzeugt werden.
Die Zeit ist besorgniserregend für alle, die biometrische Schutzmechanismen verwenden, denn es gibt immer mehr schockierende Berichte über deren Umgehung. Das bedeutet jedoch nicht unbedingt, dass sie unsicher geworden sind. Sie sind immer noch Teil einer starken Verteidigungsstrategie, vor allem als Teil der Multi-Faktor-Authentifizierung (MFA).
Denn die Art und Weise, wie und wo biometrische Anmeldemethoden eingesetzt werden, kann ihre Schutzwirkung insgesamt verbessern oder schwächen. Für böswillige Akteure mag es jetzt einfacher sein, mehr anerkannte biometrische Merkmale zu fälschen, doch wenn sie nur ein Teil der Identifizierung sind und nicht das Ganze, können sie immer noch einen soliden Schutz bieten.
Ein zusätzlicher Schritt der Sicherheitsüberprüfung kann den entscheidenden Unterschied ausmachen, da sich die optionale Verwendung von Single-Factor-Access-Anmeldungen als sehr riskant erweisen kann. Es ist wichtig, sicherzustellen, dass die Mitarbeiter mehrere Faktoren zur Identifizierung verwenden müssen und es nicht nur eine Opt-in-Möglichkeit gibt.
Ein böswilliger Akteur nimmt die IT-Direktorin Frau Becker ins Visier, da sie Zugang zu den kritischsten Systemen im Unternehmen hat. Mithilfe von Deepfake-Software generiert der Angreifer ein hochauflösendes, realistisches Deepfake-Video von Frau Becker. Die im Unternehmen verwendete Gesichtserkennungssoftware identifiziert das Deepfake-Video als Frau Becker und gewährt dem Angreifer Zugang. Einmal im System, kann er vertrauliche Daten stehlen oder Schadsoftware installieren.
Wie das Unternehmen am besten reagiert:
1. Krisenmanagement
Das Unternehmen erkennt, dass ein Deepfake-Angriff stattgefunden hat, und leitet sofort Maßnahmen zur Schadensbegrenzung ein. Alle Zugangspunkte werden überprüft und die Gesichtserkennungssysteme vorübergehend deaktiviert. Alle betroffene Mitarbeiter werden informiert und alle Zugangsdaten zurückgesetzt.
2. Langfristige Maßnahmen
Das Unternehmen implementiert eine mehrstufige Authentifizierung, die neben der Gesichtserkennung auch andere biometrische und nicht-biometrische Faktoren umfasst. Das Unternehmen investiert in fortschrittliche Technologien zur Erkennung von Deepfakes und schult die Mitarbeiter in Sicherheitsbewusstsein und Erkennung von Bedrohungen.
Sind IT- und Cybersicherheitsexperten aus Deutschland nicht besorgt genug?
In Deutschland sind 57 % der IT- und Cybersicherheitsexperten besorgt, dass KI für Identitätsbetrug eingesetzt werden könnte. Davon sind 14 % sehr besorgt und 43 % etwas besorgt.
Die Sicherheitsexperten aus den anderen befragten Ländern scheinen sich mehr Sorgen zu machen bzw. sind sich der Gefahren von Deepfakes mehr bewusst: In den USA sind beispielsweise 74 % der befragten Teilnehmer besorgt, davon 36 % sehr besorgt.
Wie wir weiter oben gesehen haben, gab es in deutschen Unternehmen bereits einige Attacken auf leitende Angestellte, die viel Zugang zu sensiblen Daten haben. Dies wirft die Frage auf, ob die deutschen Unternehmen ausreichend besorgt sind, wenn man bedenkt, dass es bereits so viele Angriffe gab (64 %), davon 27 % durch Deepfake.
Die größten Herausforderungen bei der Einführung oder bei der Nutzung von biometrischer Authentifizierung sind in deutschen Unternehmen Datenschutzbedenken, die Machbarkeit und verbundene Kosten und der Schutz vor Datensicherheitsverletzungen, die biometrische Daten betreffen. Erst an vierter Stelle kommen Bedenken durch einen Identitätsdiebstahl.
Da Deepfaking von Führungskräften und Angestellten in Videoanrufen immer häufiger vorkommt, ist es wichtig zu wissen, auf welche Anzeichen du achten musst, um zu sehen, dass etwas nicht stimmt. Einige typische Merkmale von Deepfake-Videos sind:
- Ruckartige, unnatürliche Körperbewegungen
- Unschärfe um die Gesichtszüge herum
- Ungewöhnliche Färbung des Videos
- Unstimmiger Ton
Wenn du Zweifel an der Person hast, mit der du sprichst, kannst du sie auch bitten, ihren Kopf um 90° zur Seite zu drehen, um eine Profilansicht ihres Gesichts zu sehen. Das kann den Software-Algorithmus stören, der ein anderes Gesicht auf den Sprecher projiziert, da er sich an eine Form anpassen muss, die er nicht gewohnt ist.
Unternehmen schützen sich durch verbesserte Netzwerksicherheit und Phishing-Schutz sowie häufigere Software-Updates
Die Verbesserung der Netzwerksicherheit, die Erhöhung des Schutzes vor Phishing und häufige Software-Updates scheinen die häufigsten Maßnahmen zu sein, die Unternehmen in den letzten 18 Monaten in Deutschland ergriffen haben, um ihren Schutz zu verbessern. Viele dieser Maßnahmen erfordern keine zusätzlichen Investitionen, um erfolgreich zu sein und sind relativ einfach durchzuführen.
Lediglich knapp ein Drittel (32 %) haben in neue Sicherheitssoftware investiert. Es gibt viele Programme, die Unternehmen beim Schutz gegen Bedrohungen unterstützen können.
- Wähle einen Anbieter von biometrischer Authentifizierung, der zusätzliche Funktionen wie erweiterte Betrugserkennung und Low-Code-Integrationen bietet.
- Investiere in einen KI-Detektor für gefälschte Videos: Generative KI-Systeme wurden eingesetzt, um höchst plausible Deepfake-Videos zu erstellen, die von vielen Tools zur Erkennung synthetischer Bilder nicht erkannt werden können. Es gibt Tools zur Erkennung von Deepfake-Videos, die speziell darauf trainiert sind, diese zu erkennen.
- Netzwerksicherheits-Software sollte in jedem Unternehmen Standard sein. Sie schützt vor Cyberangriffen und Datenverlust, indem sie Bedrohungen wie Viren, Malware und unautorisierte Zugriffe erkennt und blockiert. Zudem verbessert sie die Netzwerkintegrität und -verfügbarkeit, was zu einer stabileren und sichereren IT-Infrastruktur führt.
Weiterhin geben 55 % der deutschen IT- und Sicherheitsexperten an, dass sie spezifische Maßnahmen entwickelt haben, um sich gegen die Risiken von KI-generierten Deepfakes und deren Potenzial, sich als leitende Angestellte auszugeben, zu schützen. Die meisten davon nehmen an Konferenzen zum Thema Cybersicherheit teil, leiten regelmäßige Schulungen und führen Simulationsübungen unter den Angestellten ihres Unternehmens durch.
Obwohl 56 % Schulungen- und Sensibilisierungsmaßnahmen in ihrem Unternehmen durchführen, muss man sehen, dass es 44 % nicht tun. Schulungen unter den Mitarbeitern und vor allem den Führungskräften sind entscheidend, um Deepfake-Angriffe zu verhindern. Vor allem Simulationsübungen können die Angestellten trainieren, um die Echtheit einer Anfrage in Frage zu stellen.
Unternehmen sollten weiterhin ihre Sicherheitsvorkehrungen verbessern und Mitarbeiter sensibilisieren
Die Bedrohung durch biometrischen Betrug und Deepfake-Technologie ist ein ernsthafter Grund zur Sorge für Unternehmen. Die gute Nachricht ist jedoch, dass Maßnahmen ergriffen werden können, um den Cyberkriminellen einen Schritt voraus zu sein. In vielerlei Hinsicht hat die Angst vor diesen Bedrohungen die Unternehmen dazu veranlasst, ihre Sicherheitsvorkehrungen genauer zu prüfen und zu verbessern.
Welchen Cyberangriffen Führungskräfte noch ausgesetzt sind, ob sie öfter auf Angriffe reinfallen und wie sie auf Cyberattacken trainiert werden? Dies und mehr gibt es im zweiten Teil unserer Studie zur Cybersicherheit von Führungskräften. Neben der Vorstellung unserer Studienergebnisse wollen wir Unternehmen aufzeigen, wie sie ihre Führungskräfte und Mitarbeiter am besten auf Cyberrisiken sensibilisieren und ihnen helfen, diese zu erkennen.
Methodik
Die GetApp Executive Cybersecurity Survey wurde im Mai 2024 unter 2.648 Befragten in den USA (n=238), Kanada (n=235), Brasilien (n=246), Mexiko (n=238), Großbritannien (n=254), Frankreich (n=235), Italien (n=233), Deutschland (n=243), Spanien (n=243), Australien (n=241) und Japan (n=242) durchgeführt. Ziel der Studie war es, herauszufinden, wie IT- und Cybersicherheitsexperten auf die wachsende Bedrohung durch biometrischen Betrug reagieren. Die Befragten wurden auf IT- und Cybersicherheitsfunktionen in Unternehmen überprüft, die Sicherheitssoftware einsetzen und mehr als einen Mitarbeiter haben. Die Befragten wurden daraufhin untersucht, ob sie an den in ihrem Unternehmen implementierten Cybersicherheitsmaßnahmen beteiligt sind oder diese kennen.