KI – Die neue Waffe im Cyber War
Dass Ausgaben von künstlicher Intelligenz immer weniger von menschengemachten Handlungen und Arbeitsergebnissen zu unterscheiden sind, hat auch Auswirkungen auf die Cybersicherheit. Dieser Blog-Beitrag behandelt diese Entwicklung insbesondere mit Blick auf Phishing-Angriffe.
Ein Hinweis noch vorab: Dieser Text wurde NICHT von ChatGPT o.ä. generiert, sondern vollständig von einem echten Menschen geschrieben.
Was künstliche Intelligenz kann und was sie (noch) nicht kann
Durch künstliche Intelligenz (KI) nimmt der technische Fortschritt ein nie dagewesenes Tempo auf. Die Möglichkeit Daten elektronisch zu verarbeiten, wird in Wissenschaft und Wirtschaft schon seit den 1950er-Jahren zum Erfassen und Auswerten von Informationen aus allen erdenklichen Quellen genutzt. Beim bloßen Verarbeiten von Daten unter Verwendung mathematischer Formeln haben diese Systeme schon früh ihre humane Konkurrenz in Schnelligkeit und Genauigkeit übertroffen.
Seit einigen Jahren erreichen oder übertreffen die Systeme zunehmend auch Fähigkeiten, die lange Zeit ausschließlich Menschen zugeschrieben wurden – zumindest hat das den Anschein. Denn auch bei Systemen, die auf KI basieren, handelt es sich immer um das Werk von Menschen. Daher erscheint es logisch, dass diese nur Ergebnisse liefern können, für die sie von ihren Schöpfer:innen gemacht wurden. Ob KI in naher Zukunft bewusste Handlungen (z.B. kreative, soziale oder eigenmotivierte Handlungen) ausführen kann, ist nicht sicher. Die KI-Forschung versucht jedoch, diese und andere menschliche Fähigkeiten heute schon zu simulieren – und das gelingt ihr immer besser. Einsatz finden die dabei entstehenden Produkte etwa beim Generieren von Kunst oder auch zunehmend im Betrieb von Callcentern. Hier wird immer mehr auf die Möglichkeit der Simulation originär menschlicher Fähigkeiten mithilfe von KI gesetzt.
Die Rolle der KI im Cyber War in der Vergangenheit
Das maschinelle Lernen (ML) – eine fortgeschrittene Methode der Datenanalyse – ist ein Unterbereich der KI-Forschung. In der Cyber Security wird ML schon seit einigen Jahren zur Anomalieerkennung verwendet. Die Erkennung von Anomalien in großen Datenmengen ist ein klassischer Einsatzbereich für ML. So können z.B. auffällige Zugriffsversuche durch Endpoint- Protection- oder Intrusion-Detection-Lösungen mithilfe von ML wesentlich schneller erkannt werden als durch Analysten.
In einigen Fällen sind jedoch Benutzer:innen gefragt, da ein einzelner Vorgang nicht als Anomalie erkennbar ist. Im deutschsprachigen Raum war lange Zeit das für oder gegen die Legitimität einer E-Mail oder eines Anrufs sprechende bzw. wichtige Indiz, die sprachliche Korrektheit der Kommunikation. Initiatoren klassischer Phishing-Kampagnen, sind der in der Regel nicht deutsche Muttersprachler:innen. Mails afrikanischer Prinzen oder Anrufe von angeblichen Microsoft-Mitarbeiter:innen scheiterten oft an der komplizierten deutschen Grammatik oder Aussprache.
KI im Cyber War heute in der Gegenwart und Zukunft
Die Gegenseite fährt seit neustem größere Geschütze aus der KI-Forschung auf. Die zuvor erwähnte Möglichkeit, mithilfe der KI menschliche Fähigkeiten zu simulieren, wird von Angreifenden zunehmend genutzt. Bisher mussten Hackergruppierungen für groß angelegte Kampagnen ganze Teams bilden, die ihre Opfer per E-Mail und Telefon zur Herausgabe von Daten und zum Ausführen von Malware verleiteten.
Das Generieren von Texten zu jedem erdenklichen Thema ist für Tools wie beispielsweise ChatGPT von OpenAI heute kein Problem mehr. In den letzten Wochen wurde in der Presse überwiegend die Rolle von ChatGPT für Schule und Wissenschaft diskutiert, weil die Ergebnisse des Tools von echten Ausarbeitungen praktisch nicht mehr zu unterscheiden sind. Mit diesen Fähigkeiten ausgestattet ist das Generieren von überzeugenden Phishing-Mails – in jeder gängigen Sprache – kein Problem für ChatGPT. Das Tool liefert neben dem sprachlich perfekten Text auch überzeugende Argumente, wodurch die empfangende Person zur gewünschten Handlung bewegt werden sollen. Dabei kann ChatGPT auch mit Informationen über die Opfer gefüttert werden, um direkt mit der ersten Nachricht deren Aufmerksamkeit zu gewinnen (der sog. Phishing Hook).
Und das ist immer noch nicht alles: ChatGPT kann auch die zugehörigen Schadprogramme programmieren, die z.B. Daten stehlen oder verschlüsseln. OpenAI arbeitet hier zwar an Regeln, anhand derer ChatGPT unangemessene Anfragen ablehnen soll, jedoch muss der Einsatz eines Verschlüsselungstools oder einer Technologie zur Übertragung des Festplatteninhalts nicht zwingend einen kriminellen Zweck haben.
Sogenannte text-to-speech-KI kann geschriebenen Text in gesprochene Sprache übersetzen – und das kann sie inzwischen mit einem natürlichen Klang. KI-basierte Software führt solche Phishing-Anrufe in jeder gängigen Sprache automatisiert aus und kann mit praktisch jeder Reaktion des Angerufenen umgehen. So können ohne menschliche Interaktion breit angelegte Kampagnen durchgeführt werden. Dieses Vorgehen gleicht dem Fischen mit einem Netz.
Doch auch für gezielte Phishing-Angriffe (sog. Spear Phishing) wird neuerdings auf KI-Technologien gesetzt. Ein Voice Deepfake kann bei Angriffen die Stimme der Geschäftsführung nachahmen. Dabei wird der gesprochene Text unter Umständen ebenfalls von einer KI gesprochen.
Denkbar wären vollautomatisierte Angriffe unter Verwendung aller zuvor genannten Techniken. Im ersten Schritt wird mit einem Anruf bei der Geschäftsführung die Stimme aufgezeichnet. Anschließend können mit einem Voice Deepfake die CFOs zu Überweisungen, der Admin zur Installation von Schadprogrammen oder die Ingenieur:in zur Herausgabe von Firmengeheimnissen verleitet werden. Die Zeiten, in denen Phishing-Kampagnen sich durch gebrochene Sprache zuverlässig selbst entlarvt haben, sind somit definitiv vorbei.
Doch auch die Gegenseite rüstet mit KI auf: Bei der Erkennung von Schwachstellen im Netzwerk oder in Anwendungen sowie bei der Bereitstellung von Threat Intelligence. Es ist davon auszugehen, dass Technologien wie ein von OpenAI neu Diese neue KI, ist darauf trainiert, zwischen Texten, die von Menschen verfasst wurden und von KI-generierten Formulierungen zu unterscheiden. Jedoch muss berücksichtigt werden, dass eine KI selbst auch Ziel von Angriffen werden kann: KI-Systeme können beispielsweise durch gezielte Eingaben manipuliert werden.
Fazit
Die künstliche Intelligenz hat großes Potenzial viele Bereiche in unserem Leben zu beeinflussen – positiv wie negativ. Es kommt jetzt darauf an, das Potenzial zur positiven Veränderung auszuschöpfen.