Sie denken, wenn ich mich höre, dann bin ich es auch? Ich muss Sie leider enttäuschen. Sie hören eine von Ihnen gesprochene Nachricht und sind im Zweifel, ob Ihr Gehirn noch alle Informationen richtig verarbeitet? Sie hören die Nachricht und befürchten gar, schon unter Demenz zu leiden? Dann habe ich gute Nachrichten für Sie.
In der digitalen Welt ist Misstrauen angebracht, denn Sprachnachrichten können täuschend echt nachgebildet werden. Diese Entwicklung wird durch künstliche Intelligenz (KI) möglich gemacht und birgt sowohl humoristisches als auch kriminelles Potenzial.

Es genügt bereits, einige Wortfragmente Ihrer Stimme zu besitzen, um eine täuschend echte Sprachnachbildung zu erstellen. Diese Tatsache birgt Risiken, denn in den falschen Händen kann KI verwendet werden, um Straftaten zu fördern oder sogar zu ermöglichen. Der Seite T3N Digital Pioneers zufolge werden vermehrt Fälle von nachgestellten Entführungen beobachtet.

T3N Digital Pioneers berichtet hier über zunehmende Fälle von nachgestellten Entführungen.

Screenshot T3N Digital Pioneers vom 13.11.2023

Kriminelle nutzen Informationen aus dem Internet, um vermeintliche „Opfer“ zu identifizieren, klonen deren Stimme und versenden Entführungsnachrichten zu einer Zeit, in der die Betroffenen laut Social Media nicht erreichbar sein sollten.

Mein Rat: Um sich vor diesen Gefahren zu schützen, sollten Sie Ruhe bewahren und versuchen, die angeblich sprechende Person zu erreichen. Wenn das nicht möglich ist, sollten andere nahestehende Personen kontaktiert und von der Nachricht berichtet werden. Es ist wichtig, den Wahrheitsgehalt einer solchen Nachricht kritisch zu hinterfragen und sich nicht überstürzt von Angst und Panik leiten zu lassen. Im Falle einer vermeintlichen Entführung sollten Fragen gestellt werden, ob die geforderte Summe Sinn ergibt und ob es wahrscheinlich ist, dass Verbrecher ausgerechnet eine unbekannte Person entführen und ein vergleichsweise niedriges Lösegeld fordern würden.

Ein weiterer wichtiger Aspekt ist, umgehend die Polizei einzuschalten und nicht auf eigene Faust zu handeln, indem beispielsweise das geforderte Lösegeld bezahlt wird. Denn in diesen Fällen ist es meist unmöglich, das einmal bezahlte Geld wiederzuerlangen.

Die Verbreitung von KI-basierten Sprachnachbildungen stellt eine ernstzunehmende Herausforderung dar, die unser Vertrauen in Sprachkommunikation nachhaltig beeinflussen kann. Es ist daher entscheidend, aufmerksam zu sein und die möglichen Risiken zu erkennen, um sich in der digitalen Welt zu schützen.

Bleiben Sie mir gewogen und bleiben Sie aufmerksam!

Ralf Beckmann