KI-Hype zwischen Erfolg und enttäuschter Hoffnung
Sag mir, wie ich mich fühle
Auch bei der KI-basierten Emotionsanalyse klaffen Wunsch und Wirklichkeit deutlich auseinander. Der Markt boomt, Analysten prognostizieren ein durchschnittliches globales Umsatzwachstum von 15 bis 17 Prozent pro Jahr, das Marktvolumen soll in drei Jahren bis zu 25 Milliarden Dollar betragen. Das ist kein Wunder, verspricht doch die Erkennung von Emotionen mit Hilfe von KI Kundengespräche effizienter und Werbemassnahmen wirksamer zu machen, die Personalsuche zu erleichtern und Betrüger schneller zu entlarven. Selbst Krankheiten wie Parkinson und Depressionen sollen sich über die Analyse emotionaler Zustände frühzeitig diagnostizieren lassen. Auch die Auto-Industrie setzt auf emotionale Kontrolle. Indem sie den Gefühlszustand des Fahrers überwachen, sollen intelligente Fahrzeugsysteme Unfälle durch Übermüdung und Konzentrationsschwäche verhindern helfen.
Wie meist in boomenden Märkten ist die Zahl der Anbieter gross und wächst ständig. Neben Branchenriesen wie Amazon, Microsoft und IBM beschäftigen sich jede Menge Start-ups wie Affectiva, Braingeneers, HireVue, Retorio oder Sightcorp mit der Deutung von Gesichtsausdrücken, Verhalten und Stimme. Auch deutsche Unternehmen wie Audeering, Precire Technologies oder Soma Analytics mischen kräftig mit.
Die Anbieter versprechen meist, Emotionen zuverlässiger erkennen zu können als ein menschliches Gegenüber. «Das mag durchaus stimmen», erklärt Ralph Ohnemus, Vorstand und CEO der K&A BrandResearch AG, der selbst viel Geld in Emotionsforschung investiert hat. «Menschen sind in der Regel nicht sehr gut darin, die Gefühle von anderen zu erkennen.»
“Wenn die grundlegenden Annahmen nicht stimmen, kann auch die beste KI keine sinnvollen Ergebnisse liefern„
Ralph Ohnemus, Vorstand und CEO bei K&A BrandResearch
Das Problem ist nur: Innere Zustände lassen sich gar nicht so eindeutig äusseren Gefühlsregungen zuordnen, wie es uns die Emotionsanalytiker glauben machen wollen. Ihre Systeme basieren meist auf Theorien wie der von Paul Ekman und Wallace V. Friesen. Die beiden Forscher entwickelten in den 1970er-Jahren das Facial Action Coding System (FACS). Ekman und Friesen zufolge lassen sich die Bewegungen der Gesichtsmuskulatur in 46 «Action Units» einteilen, aus deren Kombination sieben Basis-Emotionen ablesbar sind (Wut, Freude, Trauer, Ekel, Verachtung, Angst, Überraschung). Entsprechende Theorien gibt es auch für akustische Parameter in der Stimme und für Körperbewegungen.
Diese Vorstellung wird heute von den meisten unabhängigen Experten abgelehnt. In einer Metastudie analysierte etwa ein Wissenschaftlerteam um die amerikanische Psychologin Lisa Feldman Barrett mehrere Hundert Forschungsberichte zur Emotionserkennung. Das Ergebnis: Die Art und Weise, wie Menschen Gefühle kommunizieren, unterscheidet sich erheblich von Kultur zu Kultur, von Situation zu Situation und sogar von Mensch zu Mensch innerhalb derselben Situation. Darüber hinaus können ähnliche Kombinationen von Gesichtsbewegungen sehr unterschiedliche innere Zustände repräsentieren. Ein finsterer Blick etwa hängt nicht notwendigerweise mit Ärger oder Wut zusammen. «Wir haben ein falsches Emotionsmodell im Kopf», sagt Ralph Ohnemus. Emotionen seien weder unkontrollierbar noch eindeutig. «Es gibt eine extreme Bandbreite, wie wir Gefühle erleben», erläutert der Marktforscher. Das reiche bei Wut etwa von eiskaltem Schweigen bis zum unbeherrschten Herumbrüllen. «Das Erregungslevel ist bei beiden hoch, wie es sich nach aussen ausdrückt, ist jedoch extrem unterschiedlich.»
Besonders problematisch werden Emotionsanalysen dann, wenn auf ihrer Basis das Leben von Betroffenen beeinträchtigt oder sogar gefährdet wird. So nutzen die amerikanischen Zoll- und Einwanderungsbehörden ICE (Immigration and Customs Enforcement) und CBP (Customs Border Patrol) den KI-Service Amazon Rekognition, um illegale Einwanderer zu identifizieren. Rekognition soll furchtsame Menschen anhand ihres Gesichtsausdrucks erkennen können, und furchtsame Menschen haben etwas zu verbergen, so die Logik. «Amazon bietet das technologische Rückgrat für die brutale Deportations- und Inhaftierungsmaschine, die bereits heute Einwanderergemeinschaften terrorisiert», beklagt sich Audrey Sasson, die Exekutivdirektorin von Jews For Racial and Economic Justice in einer E-Mail-Botschaft.
Auch europäische Staaten testen den Einsatz KI-basierter Emotionserkennung für den Grenzschutz. Das von der EU geförderte Projekt iBorderCtrl entwickelt unter anderem einen virtuellen Grenzbeamten, der anhand unwillkürlicher Gesichtsausdrücke feststellen soll, ob eine Person lügt. Ohnemus hat da grundsätzliche Bedenken: «Ich glaube, dass das Modell, wie Menschen Emotionen ausdrücken, prinzipiell falsch ist», erklärt er. «Und wenn die grundlegenden Annahmen nicht stimmen, kann auch die beste KI keine sinnvollen Ergebnisse liefern.»