Startseite Themen Brennpunkt INNOVATIONSPREIS-IT IT-Bestenliste INDUSTRIEPREIS INDUSTRIE-Bestenliste TrafficGenerator
INNOVATIONSPREIS-IT 2017

Drucken
Mittelstandspresse

06.11.2024

ChatGPT-40 kann für Betrügereien missbraucht werden

Sicherheitsforscher konnten zeigen, dass es möglich ist, die Echtzeit-Sprach-API für ChatGPT-40 von Open AI für Finanzbetrügereien zu missbrauchen, wenn auch mit niedrigen Erfolgsraten.

Neustadt an der Weinstraße, 06.11.2024 (PresseBox) - Künstliche Intelligenzen haben in den vergangenen Jahren enorm dazugelernt und beeinflussen unser Leben zunehmend. Texte, Bewerbungen oder einfach die Kündigung für das Fitnessstudio lassen sich mit ein paar Angaben in wenigen Minuten erstellen. Und die Technologie wird immer besser! Da verwundert es nicht, dass auch Cyberkriminelle sich diese selbstlernende Software zunutze machen.

Sicherheitsforscher haben nun gezeigt, dass sich die Echtzeit-Sprach-API von OpenAI für ChatGPT-4o missbrauchen lässt, um Finanzbetrügereien mit geringen bis mäßigen Erfolgsquoten durchzuführen. ChatGPT-4o ist OpenAIs aktuelles KI-Modell, das beispielsweise auch die Integration von Text-, Sprach- und Vision-Inputs und -Outputs beherrscht

Aufgrund dieser neuen Funktionen hat OpenAI verschiedene Sicherheitsvorkehrungen integriert, um schädliche Inhalte zu erkennen und zu blockieren, wie z. B. die Replikation nicht autorisierter Stimmen. Doch das scheint noch nicht auszureichen, wie die Sicherheitsforscher Richard Fang, Dylan Bowman und Daniel Kang nun in einer Studie zeigen konnten.

Sprachbasierte Betrügereien sind bereits heute ein Problem, das zu Schäden in Millionenhöhe führt. Die rasante Entwicklung der Deepfake-Technologien und KI-gestützter Text-to-Speech-Tools hat die Situation in den vergangenen Jahren weiter verschlimmert. Mit den derzeit verfügbaren technischen Hilfsmitteln lässt sich der Missbrauch dieser Technologien nicht nachhaltig verhindern. Und so lassen sich groß angelegte Scam-Operationen ohne großen menschlichen Aufwand kostengünstig planen und durchführen. Der Bericht der Sicherheitsforscher geht dabei auf verschiedene Varianten ein, wie beispielsweise Überweisungsbetrug, Betrug mit Gutscheinkarten oder Kryptotransfers sowie den Diebstahl von Zugangsdaten für Social-Media- und Gmail-Konten.

Die KI-Agenten, die die Betrügereien durchführen, verwenden sprachgesteuerte ChatGPT-4o-Automatisierungstools, um durch Seiten zu navigieren, Daten einzugeben und Zwei-Faktor-Authentifizierungscodes sowie spezifische betrugsbezogene Anweisungen zu verwalten. Da GPT-4o manchmal den Umgang mit sensiblen Daten wie Anmeldeinformationen verweigert, verwendeten die Forscher in ihrer Studie Jailbreaking-Techniken, um diese Schutzmaßnahmen zu umgehen.

So demonstrierten die Forscher, wie sie manuell mit dem KI-Agenten interagierten, indem sie in die Rolle eines leichtgläubigen Opfers schlüpften. Ob der Betrugsversuch der KI erfolgreich war, wurde anschließend manuell überprüft. Beispielsweise wurde gecheckt, ob tatsächlich eine Überweisung ausgelöst worden war.

Nicht im Fokus der Studie stand allerdings die Überzeugungskraft der KI. Die Sicherheitsforscher gehen davon aus, dass die Erfolgsquote zwischen 20 und 60 Prozent rangiert. Wobei die Quote beim Versuch, Anmeldedaten von Gmail und Instagram zu stehlen, deutlich höher war als bei Überweisungsbetrügereien.

Auch wenn diese Zahlen nicht allzu hoch sind, ist der Einsatz von KI für Cyberkriminelle trotzdem attraktiv, denn die Kosten pro erfolgreichem Scam liegen laut den Sicherheitsforschern bei lediglich 0,75 USD für gestohlene Anmeldedaten und bei 2,51 USD für Betrug mit Überweisungen. Im Vergleich zum möglichen Profit sind diese Kosten extrem niedrig.

Bei OpenAI ist man sich der Problematik durchaus bewusst und arbeitet an weiteren Schutzmechanismen, um solche Betrügereien zu verhindern. Gleichzeitig bedankt sich das Unternehmen bei den Sicherheitsforschern, da solche Berichte dabei helfen würden, die Technologie sicherer zu machen.

Ansprechpartner

Felicitas Kraus
+49 (30) 30308089-14
Zuständigkeitsbereich: Pressereferentin

Julia Olmscheid
+49 6321 484460
Zuständigkeitsbereich: Head of Communications

Über 8com GmbH & Co. KG:

Über die 8com GmbH & Co. KG

Das 8com Cyber Defense Center schützt die digitalen Infrastrukturen seiner Kunden effektiv vor Cyberangriffen. Dazu vereint 8com zahlreiche Managed Security Services wie Security Information and Event Management (SIEM), Endpoint Detection and Response (EDR) mit Incident Response und Vulnerability Management unter einem Dach. Verschiedene Penetrationstests und Security-Awareness-Leistungen runden das Angebot ab.

8com gehört zu den führenden Anbietern von Awareness-Leistungen und Informationssicherheit in Europa. Seit 20 Jahren ist das Ziel von 8com, Kunden bestmöglich vor Cyberangriffen zu schützen und gemeinsam ein ökonomisch sinnvolles, aber trotzdem hohes Informationssicherheitsniveau zu erzielen. Durch die einzigartige Kombination aus technischem Know-how und direkten Einblicken in die Arbeitsweisen von Cyberkriminellen können die Cyber-Security-Experten bei ihrer Arbeit auf fundierte Erfahrungswerte zurückgreifen.