Kolumne KI-Emotionsanalyse verbieten?

publish-industry Verlag GmbH

Mit KI Emotionen erkennen – die Technologie ist nicht unumstritten.

10.02.2020

Wie bin ich denn heute drauf? Künstliche Intelligenz soll künftig als subtiler seelischer Seismograph meiner Mimik entnehmen, was in mir vorgeht. Davor jedoch warnen Forscher des Instituts AI Now: Die maschinelle Emotionserkennung soll, fordern sie, für lebenswichtige Entscheidungen verboten werden.

Sponsored Content

Wieso? Weil Versuchsreihen gezeigt haben, dass die Algorithmen, die unser Befinden entschlüsseln sollen, noch stark zu Fehleinschätzungen, zu – so wörtlich – „systemischem Rassismus, Frauenfeindlichkeit und mangelnder Vielfalt“ neigen. Darüber hinaus seien Rechenschaftspflichten unklar und löchrig, und die Betroffenen würden gegenüber den Anwendern zunehmend benachteiligt. Dies gelte auch für den steigenden Einsatz von oftmals unreifen automatisierten Entscheidungssystemen.

Emotionsanalyse bereits im Einsatz

Wie üblich wird sofort der Ruf nach den Regulierungsbehörden laut: Sie sollen eingreifen, um die Verwendung stark einzuschränken, und bis dahin sollten KI-Unternehmen aufhören, sie einzusetzen. Trotzdem wird diese Technologie bereits in Bewerbungsgesprächen, bei der Vergabe von Versicherungen oder in der Polizeiarbeit, so zur Beurteilung von Straftätern und der Frühwarnung vor drohender Aggression, eingesetzt. Hierzu zählt auch die Affekterkennung beispielsweise zur Schmerzbeurteilung der Patienten in der Medizin.

Andererseits – schlagendes Argument der Befürworter – lockt hier ein boomender Markt: Der Wert der Emotionserkennung wird auf über 20 Milliarden US-Dollar geschätzt. Mit schnellem Wachstum: den Forschern von Market Research Future zufolge 17 Prozent pro Jahr.

Je nach Typ umfasst das Marktsegment „emotionale Analyse“ Video-, Sprach-, Gesichtsanalytik und andere; technologisch Biometrie und Neurowissenschaften, Mustererkennung, KI, Records Management und 3D-Modellierung. Man kennt Cloud-, Mobil- und Webanwendungen, die besonders gerne in Verteidigung, Handel, Unternehmen, Industrie oder Sicherheitsbehörden zum Einsatz kommen.

Aussichten für Emotionserkennung

Die Entwickler arbeiten derweil unverdrossen an der Wirksamkeit und Funktionalität der Emotionsanalyse und machen sie kompatibel zu einer Vielzahl von Soft- und Hardwareanwendungen, die audiovisuelle Mining-Techniken für den Betrieb nutzen. Worauf sollten sie auch warten, wo es doch kaum einen Aspekt der gelebten Erfahrung mehr gibt, der nicht in Daten gegossen, gemessen, quantifiziert und analysiert wird.

Technologieunternehmen mit Emotionsanalyse-Expertise konzentrieren sich aktiv auf die Entwicklung fortschrittlicher Emotionserkennungs-APIs, Gesichtserkennungs-Tools und kamerabasierter Analyseplattformen. In der Hoffnung, dass sie sich in relativ naher Zukunft auch als wichtige Technologie für biometrische Identifikationen etablieren.

Nun gut – es wird wohl kommen wie immer: Erstens werden sich rigide geführte Staaten einen Dreck um Einwände scheren. Zweitens werden Basis und Ränder durch schwierig einzuordnende Einzelanwendungen zunehmend aufgeweicht. Drittens wird der weltweite Wettbewerb zuweilen eben doch zu Verhaltensweisen zwingen, die nicht dem gängigen Ideal entsprechen.

Denn letztlich verlockt ein allzu konformes Verhalten die globale Konkurrenz dazu, den „Musterknaben“ allenfalls für bemitleidenswert zu halten und ihm dabei wohlwollend die Schlusslichtlaterne in die Hand zu drücken ...

Bildergalerie

  • Autor Roland Ackermann begleitet die Branche seit den späten 1950er-Jahren als Chefredakteur, Verlagsleiter und Macher des „Technischen Reports“ im BR.

    Autor Roland Ackermann begleitet die Branche seit den späten 1950er-Jahren als Chefredakteur, Verlagsleiter und Macher des „Technischen Reports“ im BR.

    Bild: Roland Ackermann

Verwandte Artikel