Sprachassistenten hören öfter mit als gedacht
Gut 1000 Fehltrigger gefunden
Aus diesen Daten erstellte das Team eine erste Liste von über 1000 Sequenzen, die Sprachassistenten fälschlicherweise triggern. Abhängig von der Betonung hört Alexa im Englischen beispielsweise auf die Wörter «unacceptable» und «election» oder Google auf «OK, cool». Im Deutschen lässt sich Amazon beispielsweise durch «Am Sonntag» täuschen und Siri springt an, wenn jemand den Drink «Daiquiri» bestellt.
Um zu verstehen, was diese Begriffe zu Fehltriggern macht, zerlegten die Forscherinnen und Forscher die Wörter in ihre kleinstmöglichen Klangeinheiten und identifizierten die Einheiten, die häufig von den Sprachassistenten verwechselt wurden. Basierend auf diesen Erkenntnissen erzeugten sie neue Triggerwörter und zeigten, dass diese die Sprachassistenten ebenfalls anspringen lassen.
«Die Geräte sind mit Absicht etwas liberal programmiert, weil sie ihre Menschen verstehen können sollen. Sie springen also eher einmal zu viel als zu wenig an», resümiert Dorothea Kolossa, Professorin in der Arbeitsgruppe Kognitive Signalverarbeitung der RUB.
Audioschnipsel werden in der Cloud analysiert
Die Wissenschaftler und Wissenschaftlerinnen untersuchten danach genauer, wie die Hersteller Fehltrigger auswerten. Typisch ist ein zweistufiger Prozess. Zunächst analysiert das Gerät lokal, ob in der wahrgenommenen Sprache ein Triggerwort enthalten ist. Vermutet das Gerät, das Aktivierungswort gehört zu haben, fängt es an, dass derzeitige Gespräch für eine weitere Analyse mit mehr Rechenpower in die Cloud des Herstellers hochzuladen.
Identifiziert die Cloud-Analyse den Begriff als Fehltrigger, bleibt der Sprachassistent stumm, nur seine Kontrollleuchte leuchtet kurz auf. In diesem Fall können bereits mehrere Sekunden Audiomitschnitt bei den Herstellern landen, wo sie von Menschen transkribiert werden, um solch einen Fehltrigger in der Zukunft zu vermeiden.
«Aus Privacy-Sicht ist das natürlich bedenklich, weil teils sehr private Unterhaltungen bei Fremden landen können», sagt Thorsten Holz, Profesor am Lehrstuhl Systemsicherheit der RUB. «Aus Engineering-Sicht ist das Vorgehen hingegen nachvollziehbar, denn die Systeme können nur mithilfe solcher Daten verbessert werden. Die Hersteller müssen einen Spagat zwischen Datenschutz und technischer Optimierung schaffen.»
Beispiele aus der Arbeit der Forscherinnen und Forscher sind unter unacceptable-privacy.github.io zu finden.