Schöne neue KI-Welt, die im Alltag und im Job hilft. Moderne Anwendungen, wie Chat GPT sollen das Internet auf ein neues Niveau heben, doch Experten warnen seit Beginn dieser Ära vor dem Missbrauch der KI durch Cyberkriminelle. Und dieses Szenario ist noch schneller eingetreten, als befürchtet, denn es gibt jetzt „Worm GPT“, ein Chat GPT für kriminelle Zwecke. Dieses Tool soll u.a. Business-E-Mail-Compromise-Angriffe (BEC) verbessern. Das berichtet der Hacker Daniel Kelley auf dem Blog „Slashnext“. Laut seines Berichts kann Worm GPT in wenigen Sekunden überzeugende Fake-Mails in verschiedenen Sprachen erstellen, die Mails sogar personalisieren, um sie echter wirken zu lassen. Worm GPT kennt – im Gegensatz zu den anderen KI Anwendungen – weder ethische Standards noch Einschränkungen und ist deshalb für Kriminelle perfekt geeignet.
Worm GPT : der dunkle Zwilling von Eleuther AI
Das kriminelle GPT Worm basiert nach Expertenangaben auf dem GPT-J Open-Source-Sprachmodell von Eleuther AI. Hacker Kelley glaubt, dass Worm ein Training mit Daten und Informationen rund um Viren und Hacking-Tools erhalten hat. Er startete einen Testlauf mit der Anwendung um eine Fake Mail im Namen eines Konzern-CEOs zu schreiben. Darin wurde ein Mitarbeiter angewiesen, in den folgenden 24 Stunden eine Rechnung zu begleichen. Kelley ist von dem Ergebnis des Tests beeindruckt und beunruhigt, denn die Mail war „ hochwertig“ und kaum von einer realen Anweisung zu unterscheiden.
Die Entwickler von Eleuther AI distanzieren sich derweil von den „Machern des kriminellen Worm GPT und betonen, dass es keinerlei Kontakte gäbe.„Eleuther AI hat ein Modell entwickelt und es im Einklang mit unserer Open-Source-Mission für den öffentlichen Zugang freigegeben. Die Schöpfer von Worm GPT beschlossen, ihre eigenen Modifikationen auf unser öffentliches Angebot aufzusetzen, um ihr Modell zu erstellen“
Eleuther AI ist besorgt über den Missbrauch dieser Technologie und schreibt: „Aus diesem Grund finanzieren wir Forschungsarbeiten, die darauf abzielen, die Dual-Use-Fähigkeiten von Modellen einzuschränken und arbeiten mit Computersicherheitsexperten zusammen, um die Schwachstellen der sogenannten Sicherheitsfilter zu finden.“ Bisher gibt es aber noch keine Ansätze, um diesen Missbrauch zu verhindern oder zu stoppen.
BSI sieht neuen Trend zum KI-Missbrauch
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) sieht in Worm GPT eher einen Trend als eine neue Gefahr. Es gäbe viele frei verfügbare Sprachmodelle innerhalb und außerhalb des Darknet, die jederzeit missbräuchlich verwendet werden können. „Das Hauptproblem besteht dabei darin, dass durch die Verfügbarkeit von großen Sprachmodellen oftmals die Einstiegshürde für kriminelle Aktivitäten gesenkt wird und missbräuchlich erstellte Texte sehr schnell in großer Masse und guter Qualität produziert werden können.“
Mitarbeiter in Unternehmen sollten für BEC Angriffe sensibilisiert werden, zusätzlich empfiehlt das BSI die Verwendung von kryptografischen Signaturen und Multi-Faktor-Authentifizierung.