So schützen Sie sich vor betrügerischen KI-Anrufen
  1. kreisbote-de
  2. Leben
  3. Verbraucher

So schützen Sie sich vor betrügerischen KI-Anrufen

KommentareDrucken

Eine ältere KI-generierte Dame sitzt an einem Tisch und hält ein Telefon in der Hand. Sie guckt besorgt.
Betrügerische Fake-Anrufe sind aufgrund von KI immer schwerer zu erkennen. Wir geben Tipps. © Anika Zuschke/DALL-E (KI-generiert)

Betrügerische Anrufe erreichen durch KI eine neue Dimension. Eine Stimme am Telefon ist nicht mehr das, was sie mal war. Diese Tipps sollten Sie kennen.

Frankfurt – Ihr Telefon klingelt, auf dem Display steht der Name Ihres Kindes, Ehemanns oder Ihrer Mutter. Sie nehmen den Anruf nichts ahnend entgegen und am anderen Ende berichtet das vermeintliche Familienmitglied von einem schrecklichen Unfall, in den es verwickelt war oder von einer anderen tragischen Notsituation. Am Ende des Telefonats verlangt der oder die Angehörige schließlich Geld von Ihnen.

Solche betrügerischen Anrufe – früher auch unter dem Begriff Enkeltrick bekannt, da ältere Personen häufig Opfer der Masche waren – haben durch Künstliche Intelligenz neuen Auftrieb bekommen. Denn die Technik „Voice Cloning“ ermöglicht eine exakte Imitation der Stimme von den Angehörigen. Hier folgen einige Tipps, wie Sie solche Anrufe trotzdem erkennen können und wie Sie sich in einer solchen Stresssituation verhalten sollten.

Fake-Anrufe mit KI: Der Enkeltrick nimmt mit Deepfakes neue Dimensionen an

Mit den zahlreichen Möglichkeiten von KI hat sich auch eine Box der Pandora geöffnet, die es Betrügern in vielen Aspekten des Lebens einfacher macht. Softwares können mithilfe von Künstlicher Intelligenz dahingehend trainiert werden, Stimmen exakt nachzuahmen. „So entstehen Audio-Dateien, in denen man Personen Sachen sagen hört, die sie so nicht gesagt haben“, erklärt Nicole Bahn, Referentin für Verbraucherrecht der Verbraucherzentrale Bremen. Diese Audio-Dateien werden Deepfakes genannt.

Für die Entwicklung solcher Deepfakes braucht es nicht viel. „Moderne KI-Tools benötigen oft weniger als 10 Sekunden Audiomaterial, um die Stimme einer Person authentisch zu fälschen. Je mehr Material zur Verfügung steht, umso stärker können auch Nuancen der Sprechweise imitiert werden“, erklärt ein Sprecher des Bundesamts für Sicherheit in der Informationstechnik (BSI) auf Nachfrage von IPPEN.MEDIA. Das Audiomaterial könne dabei aus Sprachnachrichten, Ansagen auf der Mailbox, Telefonanrufen, Videos in Social Media usw. stammen.

Über Text-to-Speech-Verfahren können Angreifer über Tastatureingaben eine Audioausgabe mit der gewünschten Stimme generieren. Dies kann mit den richtigen Tools nahezu in Echtzeit erfolgen.

Bundesamt für Sicherheit in der Informationstechnik auf Nachfrage von IPPEN.MEDIA

KI-Betrug mit Schockanrufen: Woher bekommen Betrüger die Informationen?

Es ist also extrem schwierig, sich gänzlich vor der Gefahr betrügerischer KI-Anrufe zu schützen. Eine einzige Sprachnachricht auf WhatsApp in den falschen Händen kann bereits ausreichen, um Familienmitgliedern einen großen Schrecken einzujagen – und ihnen unter Umständen eine Menge Geld aus der Tasche zu ziehen. Aber wie können Betrüger den manipulierten Stimmen überhaupt die richtigen Familienangehörigen zuordnen?

„Ein Hacker besorgt sich die Informationen meistens über das Darknet, indem er sich in diversen Foren Informationen kauft, die auf diversen Plattformen geleakt wurden“, erklärt KI-Experte und Software-Ingenieur Michael Zerna dem WDR. Anschließend gebe es Softwares, die daraus Verknüpfungen ziehen. Mit KI ginge das heutzutage noch schneller.

Was tun bei einem betrügerischen KI-Anruf?

Erschwerend kommt dazu, dass es auf technischer Seite für Laien nahezu unmöglich ist, Deepfake-Stimmen zu erkennen. „Feinheiten der Aussprache, Betonung, Wortwahl, Füllwörter und ähnliches können entsprechende Indizien sein“, erörtert das BSI. Allerdings sei mit solchen Anrufen oftmals ein künstlich erwirkter hoher (Zeit-)Druck verbunden (etwa durch eine angebliche Notsituation), sodass es den Betroffenen schwerfallen könne, solche Details zu erkennen.

In diesen Fällen könnten aber gezielte Nachfragen die Betrüger entlarven. Die Frage nach dem zweiten Vornamen oder Kosenamen der vermeintlich anrufenden Person oder nach bestimmten Erinnerungen sowie ein im Vorhinein vereinbartes Codewort können Klarheit schaffen, so das BSI auf Anfrage von IPPEN.MEDIA.

Tipps zum Umgang mit fake KI-Anrufen – soll man Schockanrufe melden?

Wie auch immer Sie vorgehen – es gibt ein paar Tipps, die Sie zum Schutz vor betrügerischen KI-Anrufen kennen sollten. Dazu raten das BSI und die Verbraucherzentrale Bremen:

  • Lassen Sie sich nicht unter Druck setzen und bewahren Sie Ruhe
  • Geben Sie keine sensiblen Informationen preis
  • Tätigen Sie keine Überweisungen
  • Kontaktieren Sie die Person, die vermeintlich anruft, bei auffälligem Verhalten über einen anderen Kanal
  • Notieren Sie sich das Datum, die Uhrzeit und wenn möglich die angezeigte Rufnummer und erstatten Sie damit Anzeige bei der Polizei

Die berüchtigte Voice-Cloning-Technologie wird im Übrigen nicht nur zum Betrug genutzt, sondern hat gegensätzlich dazu bei einigen Menschen auch schon für einen gewaltigen Anstieg der Lebensqualität gesorgt. Das Unternehmen „Voice Keeper“ speichert dem New Yorker zufolge beispielsweise die Stimmen von Menschen, die an stimmbehindernden Krankheiten wie Parkinson oder Kehlkopfkrebs leiden. Mithilfe einer Software zur Sprachausgabe werden ihre Worte also immer noch in ihrer Stimme zu hören sein, auch wenn sie selbst die Fähigkeit zum Sprechen verloren haben.

Auch interessant

Kommentare