Betrugsmasche: Abzocke mit KI-generierter Stimme
In Nordamerika kam es zu Betrugsfällen, bei denen die Opfer die vermeintlichen Stimmen ihrer Angehörigen am Telefon hören. Diese wurden von einer künstlichen Intelligenz (KI) generiert und klangen täuschend echt.
Die Betrüger nutzten dabei eine Technik namens „Sprachsynthese“, die es ermöglicht, aus Text oder Audioaufnahmen eine synthetische Stimme zu erzeugen. Diese kann dann verwendet werden, um beliebige Sätze zu sprechen oder zu imitieren.
In einem Fall erhielt ein älteres Ehepaar einen Anruf von einem Mann, der sich als ihr Enkel ausgab. Er behauptete, er sei in einen Autounfall verwickelt gewesen und brauche dringend Geld für die Reparatur. Die Großeltern glaubten ihm und überwiesen ihm mehrere tausend Dollar. Erst später stellten sie fest, dass ihr Enkel gar nicht in einen Unfall verwickelt war und dass sie einer KI-generierten Stimme aufgesessen waren.
Dieser Betrugsmasche könnte auf einen neuen Trend deuten, bei dem Kriminelle immer raffiniertere Methoden anwenden, um ihre Opfer zu täuschen. Bereits im Jahr 2019 gab es einen Fall, bei dem ein Geschäftsführer einer britischen Firma von einem vermeintlichen Chef einer Partnerfirma angerufen wurde. Der Anrufer forderte ihn auf, eine dringende Überweisung von 220.000 Euro zu tätigen. Der Geschäftsführer kam der Aufforderung nach und stellte später fest, dass der Anrufer eine gefälschte Stimme benutzt hatte.
Um sich vor solchen Betrugsversuchen zu schützen, sollten Verbraucher immer vorsichtig sein, wenn sie unerwartete Anrufe erhalten oder um Geld gebeten werden. Sie sollten immer versuchen, die Identität des Anrufers zu überprüfen oder sich an andere Verwandte oder Bekannte zu wenden. Außerdem sollten sie niemals persönliche Daten oder Bankdaten am Telefon preisgeben oder Zahlungen leisten ohne eine schriftliche Bestätigung zu erhalten. Wenn sie den Verdacht haben, dass sie betrogen wurden oder werden sollen, sollten sie sofort die Polizei informieren.
Die Sprachsynthese ist eine faszinierende Technologie mit vielen positiven Anwendungsmöglichkeiten wie z.B. der Unterstützung von Menschen mit Sprachstörungen oder der Verbesserung der Barrierefreiheit im Internet. Leider gibt es auch Menschen, die diese Technologie missbrauchen wollen und damit anderen Schaden zufügen können. Deshalb ist es wichtig, sich bewusst zu sein, dass nicht alles was man hört auch echt ist.