Die raschen Fortschritte in der KI-Technologie haben auch das Potenzial für kriminelle Aktivitäten erhöht. Die Nutzung von ChatGPT durch Kriminelle im Internet wurde bereits mehrfach nachgewiesen.

ChatGPT kann gezielt Phishing-E-Mails oder bösartigen Code für Malware-Angriffe generieren. Es wird befürchtet, dass Chatbots wie ChatGPT und Codex, ein OpenAI-Dienst, der Code für Entwickler schreiben kann, Cyberkriminellen bei ihren Aktivitäten helfen könnten.

Cybercrime ChatGPT KI AI
Sergey Shykevich, leitender ChatGPT-Forscher bei Checkpoint Security, hat bereits erlebt, dass Cyberkriminelle die Macht der KI nutzen, um Code zu schreiben, der in einem Ransomware-Angriff verwendet werden kann. Shykevichs Team hat seit Dezember 2021 das Potenzial von KI für Cyberkriminalität untersucht. Sie erstellten Phishing-E-Mails und schädlichen Code mithilfe des großen Sprachmodells der KI. Als sich herausstellte, dass ChatGPT für illegale Zwecke eingesetzt werden kann, wollte Shykevich herausfinden, ob ihre Ergebnisse nur “theoretisch” waren oder ob sie “die bösen Jungs, die es in der Wildnis einsetzen”, finden konnten.

Da es schwer zu sagen ist, ob eine bösartige E-Mail, die im Posteingang einer Person landet, mit ChatGPT geschrieben wurde, wandte sich sein Team an das Dark Web, um herauszufinden, wie die Anwendung verwendet wurde. Am 21. Dezember fanden sie den ersten Hinweis: Cyberkriminelle hatten den Chatbot benutzt, um ein Python-Skript zu erstellen, das in einem Malware-Angriff verwendet werden konnte. Das Skript habe einige Fehler gehabt, sagte Shykevich, aber vieles sei korrekt gewesen.

Experten befürchten, dass ChatGPT und andere Chatbots dazu beitragen könnten, Phishing-, Malware- und Hacking-Angriffe zu erleichtern. Ein Beispiel sind gezielte Betrugs-E-Mails, von denen statt einiger weniger gleich 10.000 verschickt werden können, um persönliche Informationen wie Bankpasswörter auszuspionieren.

Die Verwendung von ChatGPT für kriminelle Aktivitäten wirft auch die Frage der Haftung für OpenAI und andere KI-Unternehmen auf. Die weit verbreitete Nutzung von Open-Source-Versionen von KI-Software könnte es schwieriger machen, Verbrechen OpenAI zuzuschreiben, aber die Nutzung von Chatbots als Werkzeug für kriminelle Aktivitäten könnte auch OpenAI haftbar machen.

Insgesamt sehen die Experten eine Debatte darüber, wie die Welt die Entwicklung von KI-Technologien regulieren und überwachen wird, um ihre Nutzung für kriminelle Aktivitäten einzuschränken.

>> Der Business Insider Artikel, auf den wir uns beziehen, kann hier gefunden werden.

>> Foto von Om siva Prakash