Die KI wendet demnächst den Enkeltrick an
KI kann auch Telefonate tätigen, zum Beispiel für Betrügereien.
Shutterstock – naumstudiopro
Dass Kriminelle immer mehr auf den Geschmack von Künstlicher Intelligenz (KI) kommen, zeigt die jüngste Vergangenheit – zumal die Anwendungsmöglichkeiten immer weiter zunehmen. So kann die Echtzeit-Sprach-API von OpenAI etwa dazu verwendet werden, um KI-Agenten zu erstellen.
Zwar hatte OpenAI bereits im Juni seinen erweiterten Sprachmodus in ChatGPT, der Echtzeitgespräche zwischen Mensch und Modell unterstützt, wegen Sicherheitsbedenken zurückgestellt.
Schneller und günstiger Betrug
Die Realtime API, die Anfang Oktober 2024 veröffentlicht wurde, bietet jedoch eine mehr oder weniger gleichwertige Funktion. Sie ermöglicht es Entwicklern, Text oder Audio an das GPT-4o-Modell von OpenAI zu übergeben und es mit Text, Audio oder beidem reagieren zu lassen.
Tatsächlich konnten Forscher der University of Illinois Urbana-Champaign (UIUC) beweisen, dass damit auch Telefonbetrügereien mit KI und der Realtime API automatisiert werden können. Die Forscher zeigten, dass KI-Modelle eigenständig sensible Daten wie Bankkontodaten durch Betrugsanrufe erlangen können. Die durchschnittlichen Kosten für einen erfolgreichen Betrug sind mit etwa 0,75 Dollar zudem sehr gering, wie das begleitende Forschungspapier von Richard Fang, Dylan Bowman und Daniel Kang zeigt.
Im Rahmen der Studie entwickelten Informatiker der UIUC einfache KI-Agenten, die telefonbasierte Betrügereien durchführen können. Laut Daniel Kang, Assistenzprofessor der UIUC, wurde der Code der Agenten in nur 1.051 Zeilen implementiert, wobei der Schwerpunkt auf der Verarbeitung der Echtzeit-Sprach-API lag.
Agenten im (erfolgreichen) Einsatz
Dies zeigt, wie leicht KI für schädliche Zwecke eingesetzt werden kann. Die Agenten basierten auf OpenAI’s GPT-4o, dem Browser-Automatisierungstool Playwright und spezifischen Betrugsanweisungen. Sie nutzten Playwright, um Sicherheitskontrollen von GPT-4o zu umgehen und erfolgreich mit Websites zu interagieren.
Hier ist ein Beispiel für einen KI-Agenten, der einen Bank of America-Betrug durchführt:
Beim Überweisungsbetrug führte der KI-Agent 26 Schritte aus und testete verschiedene Betrugsarten wie
die Übernahme von Bank- oder Kryptokonten,
die Exfiltration von Geschenkcodes und
den Diebstahl von Anmeldedaten.
Hohe Erfolgsquote
Die Erfolgsraten und Kosten variierten: Den Forschern zufolge war der Diebstahl von Gmail-Daten zu 60 Prozent erfolgreich, dauerte 122 Sekunden und kostete 0,28 Dollar.
Die Übernahme von Bankkonten wiederum klappte nur in einem Fünftel der Fälle , benötigte183 Sekunden und kostetet 2,51 Dollar. Insgesamt lag die durchschnittliche Erfolgsquote bei 36 Prozent, während sich die Kosten auf 0,75 Dollar beliefen. Den Forschern zufolge traten Fehler oft durch Transkriptionsprobleme oder die komplexe Navigation einer Bank-Webseite auf.
Hier finden Sie den kompletten Artikel: