ChatGPT-Beschränkungen von OpenAI werden von Hackern umgangen

Versuche russischer Hacker werden von Check Point Research (CPR) beobachtet

Um ChatGPT für bösartige Zwecke zu nutzen, versuche russische Hacker die Einschränkungen von OpenAI zu umgehen, so die Beoachtungen von Check Point Research.  

Hacker diskutieren in Untergrundforen darüber, wie sie die Kontrollen von IP-Adressen, Telefonnummern und Zahlungsarten überbrücken können – das ist alles notwendig, um von Russland aus Zugang zu ChatGPT zu erhalten. CPR warnt vor dem schnell wachsenden Interesse von Hackern aller Länder an ChatGPT, um ihre kriminellen Kreise zu erweitern und teilt Screenshots von dem, was sie gesehen haben.

OpenAI´s Beschränkungen für bestimmte Länder zu umgehen, um Zugang zu ChatGPT zu erhalten, ist nicht sonderlich schwierig. Im Moment sehen die Sicherheitsforscher, dass russische Hacker bereits prüfen und darüber diskutieren, wie sie das Geofencing umgehen können, um ChatGPT für bösartige Zwecke zu nutzen. Diese Hacker werden versuchen, ChatGPT in ihre täglichen kriminellen Operationen zu implementieren und dessen Fähigkeiten zu testen, so die Vermutungen von Check Point Research. ChatGP ist deshalb so interessant für Cyber-Kriminelle, da die dahinterstehende KI-Technologie einem Hacker helfen kann, Kosten zu sparen.

Screenshots aus dem Underground Hacking Forum

In Untergrund-Foren fragen Hacker zum Beispiel, wie sie am besten mit einer gestohlenen Zahlungskarte für einen aufgerüsteten Account bei OpenAI, der ihnen Zugang zu leistungsfähigeren und spezialisierteren Modellen und Funktionen ermöglicht, bezahlen können. Wie man die Geokontrollen von OpenAI umgehen kann, wird in den Foren heiß diskutiert. In halblegalen, russischen Online-SMS-Diensten nutzen sie Anleitungen, die zeigen, wie man sich bei ChatGPT registrieren kann.

„Kurzfristig glauben wir nicht, dass diese neue Technologie die gesamte Bedrohungslandschaft auf den Kopf stellen wird, sondern zu einem Anstieg massenhaft produzierter Malware und vor allem wesentlich besser erstellter Phishing-E-Mails führen wird. Langfristig jedoch kann die Integration und Verbesserung dieser KI-Technologie die Art und Weise völlig und zum Schlechteren hin verändern, wie Hacker ihre Cyber-Bedrohungen bauen und auf die Nutzer loslassen“, warnt Sergey Shykevich, Threat Intelligence Group Manager