Audio-Social-Media-Apps
08.03.2021, 10:05 Uhr
Hacker könnten Anwender mit Fake-Stimmen erpressen
Soziale Medien, die ganz auf Audio-Mitteilungen setzen, wie etwa Clubhouse werden in Geschäftskreisen immer bleibter. Das hätten auch Cyberkriminelle erkannt, legen Security-Experten von Trend Micro in einem aktuellen Report dar.
Audio-basierte soziale Medien wie Clubhouse lassen sich angreifen. Dies zeigt ein aktueller Report von Trend Micro
(Quelle: pd/jst)
Rein Audio-basierte Social-Media-Apps wie Clubhouse, HearMeOut oder Audlist erfreuen sich bei Nutzerinnen und Nutzern besonders im Business-Umfeld grosser Beliebtheit. So beziffert Paul Davison, Mitgründer und CEO von Clubhouse, die wöchentlich aktiven Nutzer auf zwei Millionen – die Zahl der registrierten Nutzer ist Schätzungen zufolge sogar drei Mal so gross.
Doch diese neuen sozialen Netze weisen gemäss Untersuchungen des japanischen Cybersecurity-Spezialisten Trend Micro einige Sicherheitsrisiken auf, die Cyberkriminelle bereits mit zumeist automatisierten Angriffen ausnutzen. Die Lücken können zudem schnell weitreichende Folgen haben, wie Udo Schneider, IoT Security Evangelist Europe bei Trend Micro, zu bedenken gibt. «Zwar überschneiden sich manche Sicherheitsrisiken audio-basierter Social-Media-Apps mit denjenigen der klassischen Telefonkonferenz, doch fällt der potentielle Schaden bei Clubhouse & Co. wesentlich grösser aus. Durch die hohe Teilnehmerzahl steigt die Menge gefährdeter Daten, und verbreitete Falschinformationen können einfach Tausende von Menschen erreichen», warnt er.
In dem aktuellen Report «Mind Your Voice» haben die Cybersecurity-Forscher mehrere Schwachstellen in den Audio-Social-Media-Apps ausmachen können. So lassen sich private Informationen recht einfach abhören. «Indem ein Angreifer den Netzwerkverkehr analysiert, sieht er, wer mit wem spricht. Darüber hinaus automatisieren Angreifer diesen Prozess und können sensible Informationen eines privaten Chats abhören», schreibt Trend Micro.
Mögliche Deepfakes
Daneben warnen die Forscher vor Identitätsbetrug und der Erstellung von Deepfake-Stimmen. Mit Hilfe des Audiomaterials könnten Angreifer eine falsche Identität annehmen. Durch das zusätzliche Klonen der Stimme könnten die Fake-Person sodann beliebige Aussagen treffen lassen, heisst es. Stimmaufnahmen können darüberhinaus im Rahmen eines Identitätsbetrugs dazu genutzt werden, Benutzerkonten zu klonen, den Ruf des ursprünglichen Sprechers zu schädigen oder betrügerische Vertragsabschlüsse durchzuführen.
Diese gefälschten Aussagen mit der geklonten Stimme liessen sich schliesslich auch für Betrügereien und Erpressungen verwenden, führen die Trend-Micro-Forscher weiter aus. «Abhängig von der Struktur der App haben Angreifer die Möglichkeit etwas zu sagen oder vorab aufgezeichnetes Audio-Material zu streamen, mit dem sie das Opfer erpressen», so die Warnung. Dies laufe mittlerweile automatisiert ab, indem Cyberkriminelle passende Skripte erstellten.