Zur Navigation Zur Suche Zum Inhalt
Kontakt

Missbrauch künstlicher Intelligenz für Cyberkriminalität

ChatGPT

Beitrag von secnovum

Dieser Beitrag wurde von Roxana Gnes, Network & Security Engineer, firstframe für secnovum verfasst. 

Im November 2022 hat das US-amerikanische Unternehmen OpenAI den Prototypen eines hoch entwickelten Chatbots mit künstlicher Intelligenz veröffentlicht. Seither ist ChatGPT in aller Munde.

Das Kürzel GPT im Namen des Prototyps leitet sich von "Generative Pretrained Transformer" ab, dabei handelt es sich um ein Sprachmodell für künstliche Intelligenz. Das auf Deep Learning basierende Sprachmodell ermöglicht es ChatGPT, Informationen aus öffentlich verfügbaren Quellen zu extrahieren und zu einer Antwort in Textform zusammenzufassen.

ChatGPT wurde in mehreren Sprachen trainiert und kann in ganz unterschiedlichen Bereichen eingesetzt werden. Er kann Texte schreiben, zusammenfassen, Fragen beantworten, Programmcodes erstellen, Hausaufgaben erledigen, passende Reisepläne erstellen und vieles mehr.

Deshalb verwundert es auch nicht, dass ChatGPT innert kürzester Zeit über Millionen von Menschen erreicht und damit einen neuen Rekord für die am schnellsten wachsende Nutzerbasis aufgestellt hat. Reuters, ChatGPT sets record for fastest-growing user base

Seit einiger Zeit nun häufen sich jedoch die Vorwürfe, dass ChatGPT für bösartige Zwecke eingesetzt werden kann. Immer wieder erscheint das KI-gestützte Sprachsystem deshalb in den Schlagzeilen.

Chatverlauf mit ChatGPT

Mögliche Missbrauchsfälle

Generierung von Spam- oder Phishing-Inhalte

Eine Kernkompetenz vom KI-basierten Chatbot liegt darin Texte zu verfassen. Der Chatbot eignet sich somit bestens, um professionelle und grammatikalisch korrekte Phishing-Mails zu verfassen. Dies erschwert es Empfänger von gefälschten E-Mails, diese als solche zu erkennen. Cyberkriminelle Personen können sich somit einen Vorteil verschaffen und Phishing-Mails in verschiedenen Sprachen in kurzer Zeit erstellen. (golem.de, ChatGPT und die Zukunft des Social Engineering)

Es gehört jedoch mehr zu Phishing, als nur das Senden einer überzeugenden Nachricht. Eine gute Formatierung oder Gestaltung, sowie eine passende Absenderadresse oder E-Mail Spoofing (Fälschen der Absenderadresse) gehören ebenfalls dazu und da kann ChatGPT nicht weiterhelfen.

Verbreitung von Fehlinformationen

Mit Hilfe von ChatGPT könne fiktive Geschichten und falsche Neuigkeiten schnell und einfach verfasst werden. So können Fake-News leicht erstellt und in sozialen Medien verbreitet werden. Die Verbreitung solcher Neuigkeiten kann ChatGPT jedoch nicht übernehmen, dies muss manuell gemacht werden. Erst kürzlich wurde deshalb ein Mann in China verhaftet (nzz.ch, In China wird erstmals ein Mann im Zusammenhang mit Chat-GPT festgenommen).

Hier ist es wichtig, eigene Recherchen zu betreiben und die Informationsquellen zu verifizieren.

Erstellung von gefälschten Identitäten

Das KI-basierte Sprachmodell kann nicht selbständig Accounts erstellen. Es ist jedoch möglich, fiktive Texte oder Geschichten zu schreiben oder den Schreibstil einer Person zu imitieren. So kann ChatGPT Cyberkriminelle gezielt unterstützen und deren Effizienz steigern.

Generierung von bösartigem Code

Der wohl beunruhigendste Vorwurf lautet, dass ChatGPT Skripts und Programme für bösartige Zwecke erstellen kann. Hierbei können vor allem unerfahrene Hacker (oder sogenannte Skript Kiddies) profitieren und ohne grosse Kenntnisse Malware verbreiten. Gemäss unterschiedlichen Recherchen, ist ChatGPT jedoch nicht in der Lage komplexen Code zu schreiben. Ausserdem hat ChatGPT eine Eingabe- und Ausgabelimitierung, welche variiert und vom Modell, der Rechenleistung und der Speicherkapazität abhängig ist. (malwaretech.com, A Realistic Look at Implications of ChatGPT for Cybercrime)

Übrigens startet bald Bard in Europa durch, die Antwort von Google auf ChatGPT.  
 
Im folgenden Blogbeitrag der Hochschule Luzern finden Sie weitere Informationen dazu, wie KT-gestützte Sprachsysteme genau funktionieren: hub.hslu.ch, So funktionieren ChatGPT und Co.: Unser Experten-Video 
 
Gerne möchten wir Sie darauf hinweisen, dass dieser Text, trotz der irreführenden Grafik am Anfang, von Roxana Gnes geschrieben wurde und nicht von ChatGPT.