Malware wird jetzt von ChatGPT geschrieben

In Dark-Web-Foren scheint es bereits Bestrebungen zu geben, den Chatbot von OpenAI zum Schreiben von Malware zu nutzen, wie Analysen von Chats zeigen.  

Für deutliche Aufregung sorgt derzeit der KI-Chatbot ChatGPT. Scheinbar wird der Chatbot für Versuche genutzt, um bösartige Codes zu erstellen. ChatGPT wurde OpenAI veröffentlicht, einem Forschungslabor für künstliche Intelligenz, das für großes Interesse sorgt und bereits eine Diskussion darüber ausgelöst hat, wie sich KI entwickelt und wie KI in Zukunft eingesetzt werden könnte. In den falschen Händen könnte dieses Tool, wie jedes andere, natürlich auch für kriminelle Zwecke eingesetzt werden. Die Nutzer von Untergrund-Hacking-Communities experimentieren bereits damit, wie sich ChatGPT für Cyberangriffe einsetzen lässt, so die Cybersecurity-Forscher von CheckPoint.  

Sergey Shykevich, Threat Intelligence Group Manager bei Check Point sagte:„Bedrohungsakteure mit sehr geringem technischem Wissen – bis hin zu null technischem Wissen – könnten in der Lage sein, bösartige Tools zu erstellen. Es könnte auch die täglichen Operationen von raffinierten Cyberkriminellen viel effizienter und einfacher machen – wie das Erstellen verschiedener Teile der Infektionskette“.

Malware-Genereierung wird von OpenAI verboten

OpenAI’s Nutzungsbedingungen verbieten ausdrücklich die Generierung von Malware, die definiert wird als „Inhalte, die versuchen, Ransomware, Keylogger, Viren oder andere Software zu generieren, die in irgendeiner Form Schaden anrichten soll“.  

Versuche, Spam zu erzeugen, sowie Anwendungsfälle, die auf Cyberkriminalität abzielen sind ebenfalls verboten. Jedoch nutzen Cyberkriminelle ChatGPT bereits, um bösartige Tools zu entwickeln. Darauf deutet eine Analyse der Aktivitäten von mehreren großen Untergrund-Hacking-Foren hin– und in einigen Fällen ermöglicht es Cyberkriminellen ohne Entwicklungs- oder Programmierkenntnisse bereits die Erstellung von Malware.  

Ende Dezember beschrieb ein Poster in einem Forum bereits, wie er ChatGPT verwendet, um Malware-Stämme und -Techniken nachzubilden, die dann in Forschungsveröffentlichungen und Aufzeichnungen über gängige Malware beschrieben werden. Über diesen Weg konnten sie eine Python-basierte Malware erstellen, die nach gängigen Dateien wie Microsoft Office-Dokumenten, PDFs und Bildern sucht, diese kopiert und dann auf einen File Transfer Protocol-Server hochlädt. Der Forumsnutzer hatte diese Beiträge scheinbar geteilt, um weniger technisch versierten Cyberkriminellen zu demonstrieren, wie sie KI-Tools für bösartige Zwecke einsetzen können.  

Skripterstellung für Anfänger Ein Python-Skript wurde von einem Nutzer gepostet, das nach eigenen Angaben das erste Skript war, das er je erstellt hat. Die Analyse des Skripts lässt vermuten, dass es zum Ver- und Entschlüsseln von Dateien gedacht ist, was wiederum mit etwas Arbeit in Ransomware umgewandelt werden könnte, was unter Umständen dazu führen könnte, dass Cyberkriminelle auf niedriger Ebene ihre eigenen Erpressungskampagnen entwickeln und verbreiten. „Der Code kann natürlich auf harmlose Weise verwendet werden. Das Skript kann ohne größeren Aufwand so modifiziert werden, dass es den Computer einer Person ohne jegliche Benutzerinteraktion voll umfassend verschlüsselt“, so Check Point. 

Nicht nur mit ChatGPT wird von Cyberkriminellen experimentiert, um Malware zu entwickeln. Ein Mitglied eines Untergrund-Forums postete in der Silvesternacht einen Beitrag, in dem gezeigt wurde, wie mit dem Tool Skripte erstellt werden können, die einen automatisierten Dark-Web-Marktplatz für den Kauf und Verkauf von gestohlenen Kreditkarteninformationen, Kontodaten oder Malware betreiben könnten. Sogar ein Stück Code, das mit einer Drittanbieter-API erstellt wurde, zeigte der Cyberkriminelle, um aktuelle Preise für die Kryptowährungen Monero, Bitcoin und Ethereum als Teil eines Zahlungssystems für einen Dark-Web-Marktplatz zu erhalten