TL;DR:
Emotionserkennungssysteme werden hauptsächlich mit amerikanischen Daten trainiert und verstehen europäische Kommunikationsstile falsch. Indirektheit, Zurückhaltung und kulturelle Nuancen beim Ausdruck von Gefühlen gehen verloren. Die EU hat reagiert: Seit 2. Februar 2025 sind Emotionserkennungssysteme am Arbeitsplatz verboten. Der Grund ist wissenschaftlich fundiert: Es gibt keine universellen Ausdrücke für Emotionen.
Einleitung
Ende 2025 ergab eine Umfrage in Australien ein klares Bild: Nur 12,9 Prozent der Erwachsenen unterstützen Gesichtserkennungstechnologien zur Emotionserkennung am Arbeitsplatz. Die Technologie sei invasiv und sehr anfällig für Fehler.
In Europa ist das Misstrauen noch größer. Die Art, wie wir Gefühle ausdrücken, unterscheidet sich grundlegend von den Annahmen, auf denen diese Systeme basieren.
Am 2. Februar 2025 trat Artikel 5(1)(f) des EU AI Act in Kraft. Dieser Artikel verbietet den Einsatz von KI-Systemen zur Erkennung von Emotionen am Arbeitsplatz und in Bildungseinrichtungen.
Die Begründung steht in Erwägungsgrund 44 des Gesetzes: Die Ausdrucksweise von Emotionen variiert erheblich zwischen Kulturen und Situationen. Es gibt keine ausreichende wissenschaftliche Grundlage für diese Technologie.
Wie Emotionen kulturell geprägt sind
Lisa Feldman Barrett ist Neurowissenschaftlerin an der Harvard Universität. Sie hat über 1.000 Studien zu Emotionen untersucht. Ihre Schlussfolgerung aus dem Jahr 2019: Emotionen sind nicht biologisch fest verdrahtet. Sie werden vom Gehirn basierend auf Kontext, Kultur und Erfahrung konstruiert.
Es gibt keine konsistenten Beweise für universelle Gesichtsausdrücke. Ein Lächeln bedeutet nicht überall dasselbe. Die Hautfeuchtigkeit einer Person kann steigen, fallen oder gleich bleiben, wenn sie wütend ist.
Eine Expertengruppe stellte 2019 fest: Es gibt keine objektiven Maßstäbe, die zuverlässig emotionale Kategorien identifizieren. Trotzdem wurde der Markt für Emotionserkennungssysteme 2022 auf 34 Milliarden US-Dollar geschätzt. Bis 2027 soll er auf 62 Milliarden wachsen.
Eine Studie von 2023 zeigte konkret: Ein System, das auf nordamerikanischen Daten trainiert wurde, scheitert bei der Erkennung von Ausdrücken aus Ostasien.
Europäische Kommunikationskultur
In vielen europäischen Ländern ist Kommunikation kontextabhängig und indirekt. Eine Bitte kann wie eine Frage klingen. Ein deutsches „vielleicht könnte man“ ist keine unsichere Aussage, sondern eine höfliche Art, eine klare Meinung zu äußern.
Forscher an der Cornell Universität haben 2024 untersucht, welche kulturellen Werte große Sprachmodelle ausdrücken. Sie testeten fünf GPT-Versionen mit zehn Fragen aus einer globalen Werteumfrage.
Die Antworten stimmten durchgängig mit den Werten englischsprachiger und protestantischer europäischer Länder überein. Die kulturellen Werte von GPT-4o lagen am nächsten bei Finnland, Andorra und den Niederlanden. Am weitesten entfernt waren sie von Jordanien, Libyen und Ghana.
Die Forscher testeten „kulturelles Prompting“: Sie baten das Modell, aus der Perspektive einer Person aus einem bestimmten Land zu antworten. Das funktionierte für 71 bis 81 Prozent der getesteten Länder. Aber für viele europäische Länder verschlechterte es die kulturelle Ausrichtung sogar.
Dialekte und emotionale Nuancen
Im November 2025 veröffentlichten Forscher eine Studie über deutsche Dialekte und große Sprachmodelle. Sie testeten, wie diese Modelle auf Menschen reagieren, die Alemannisch oder Bairisch sprechen.
Alle bewerteten Modelle zeigen erhebliche Voreingenommenheit gegen Dialektsprecher. Die Studie fand etwas Unerwartetes: Die explizite Bezeichnung, dass jemand einen Dialekt spricht, verstärkte die Voreingenommenheit mehr als der bloße Gebrauch des Dialekts.
Dialekte tragen emotionale und soziale Bedeutungen. Ein System, das gegen Dialekte voreingenommen ist, versteht diese Ebene der Kommunikation nicht.
Was die EU-Richtlinien konkret verbieten
Die Europäische Kommission veröffentlichte am 4. Februar 2025 detaillierte Richtlinien zu verbotenen KI-Praktiken:
Ein Callcenter, das Webcams und Spracherkennung verwendet, um Emotionen von Mitarbeitern zu verfolgen, ist verboten. Eine Schule, die Interesse von Studenten misst, ist verboten. Emotionserkennung im Bewerbungsprozess ist verboten.
Ausnahmen gibt es nur für medizinische oder Sicherheitszwecke. Zum Beispiel: Ein System, das Müdigkeit bei Piloten erkennt, um Unfälle zu verhindern.
Das Verbot gilt nicht für kommerzielle Kontexte. KI-Chatbots, die Emotionen von Kunden erkennen, sind erlaubt. Die Unterscheidung ist bewusst: Am Arbeitsplatz besteht ein Machtungleichgewicht.
Warum die Systeme versagen
Emotionserkennungstechnologie diskriminiert systematisch auf Basis von Rasse, Geschlecht und Behinderung. Aber die kulturelle Dimension ist weniger bekannt.
Eine Studie vom April 2025 an der Sorbonne stellt fest: Emotionale Ausdrücke sind tief in der Kultur verwurzelt. Was in einem westlichen Kontext als empathisch erscheint, kann anderswo unpassend wirken.
In Deutschland gilt übermäßiges Lächeln als unhöflich. In Skandinavien ist Zurückhaltung üblich. In Südeuropa ist emotionaler Ausdruck direkter.
Ein auf amerikanischen Daten trainiertes System interpretiert diese Unterschiede falsch. Es sieht deutsche Zurückhaltung als Unsicherheit. Es sieht skandinavisches Schweigen als Desinteresse.
Die Perspektive der Betroffenen
In einer US-Studie von 2025 äußerten Arbeitnehmer konkrete Sorgen: Sie befürchteten, dass Emotionserkennungssysteme ihr Wohlbefinden beeinträchtigen würden. Ungenauigkeiten könnten falsche Eindrücke erzeugen, die Beförderungen verhindern oder zu Entlassungen führen.
Die EU-Richtlinien beschreiben ein Szenario: Ein Mitarbeiter mit niedrigen Umsätzen wird möglicherweise desinteressiert. Wenn es zu rechtlichen Schritten kommt, ist schwer zu beweisen, dass das Emotionserkennungssystem keinen Einfluss auf Entscheidungen über Bezahlung hatte.
Vorwürfe der Voreingenommenheit könnten entstehen, wenn die Software Menschen benachteiligt, für die Englisch nicht die Muttersprache ist.
Was Europa anders macht
Europa hat eine wissenschaftlich fundierte Position eingenommen: Diese Technologie funktioniert nicht so, wie behauptet wird.
Die Kommission zitiert in ihren Richtlinien die begrenzte Zuverlässigkeit und Generalisierbarkeit von Technologien, die behaupten, Geistesverfassungen ableiten zu können.
Verstöße können teuer werden: Geldbußen bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes. Die ersten Durchsetzungsmaßnahmen werden 2025 erwartet.
Kulturelle Werte in Sprachmodellen
Eine Studie der Johns Hopkins University vom September 2025 untersuchte, wie mehrsprachige KI mit Informationen aus verschiedenen Kulturen umgeht.
Die Modelle bevorzugen systematisch Informationen in der Sprache der Anfrage. Die Forscher sprechen von „linguistischem Imperialismus“: Informationen aus ressourcenreichen Sprachen verdrängen andere Perspektiven.
Das betrifft direkt, wie Emotionen kommuniziert werden. Wenn ein System nur englischsprachige Quellen als zuverlässig ansieht, reproduziert es auch deren emotionale Normen.
KI versteht europäische Gefühle oft nicht, weil sie nicht dafür gemacht wurde. Sie wurde mit Daten trainiert, die andere kulturelle Annahmen über Emotionen widerspiegeln.
Die Wissenschaft ist eindeutig: Es gibt keine universellen emotionalen Ausdrücke. Systeme, die behaupten, Emotionen zuverlässig zu erkennen, ignorieren diese Tatsache.
Europa hat mit dem weltweit ersten Verbot von Emotionserkennungssystemen am Arbeitsplatz reagiert. Das ist eine wissenschaftlich fundierte Entscheidung zum Schutz der Grundrechte.
Die Herausforderung bleibt: Auch Sprachmodelle tragen kulturelle Voreingenommenheiten. Sie reproduzieren Kommunikationsstile, die nicht überall passen. Kulturelles Prompting kann helfen, aber es funktioniert nicht immer.
Vor allem aber müssen wir aufhören zu glauben, dass Technologie neutral ist. Sie ist immer geprägt von denen, die sie entwickeln. Wenn wir das verstehen, können wir besser entscheiden, wo diese Systeme uns dienen und wo sie uns missverstehen.
Lassen Sie uns sprechen, iseremo hilft Ihnen, KI einfach und sicher in Ihrem Unternehmen einzusetzen.
Quellen und Referenzen
- European Commission (Februar 2025): Guidelines on prohibited artificial intelligence practices (Communication C(2025) 884 final) https://www.wsgrdataadvisor.com/2025/02/eu-commission-issues-guidelines-on-prohibi d-ai-practices-under-eu-ai-act/
- Technology’s Legal Edge (April 2025): „EU AI Act – Spotlight on Emotional Recognition Systems in the Workplace“ https://www.technologyslegaledge.com/2025/04/eu-ai-act-spotlight-on-emotional-recognition-systems-in-the-workplace/
- The Conversation (Dezember 2025): „Tech companies claim AI can recognise human emotions. But the science doesn’t stack up“ https://theconversation.com/tech-companies-claim-ai-can-recognise-human-emotions-but-the-science-doesnt-stack-up-243591
- UX Collective (Februar 2025): „The UX of emotion recognition: Can AI truly read feelings?“https://uxdesign.cc/the-ux-of-emotion-recognition-can-ai-truly-read-feelings-e26f16268e96
- Scientific Reports (Juni 2023): „Study on emotion recognition bias in different regional groups“ https://www.nature.com/articles/s41598-023-34932-z
- PNAS Nexus (September 2024): Tao, Y. et al. „Cultural Bias and Cultural Alignment of Large Language Models“
https://academic.oup.com/pnasnexus/article/3/9/pgae346/7756548
- ACL Anthology (EMNLP 2025): Bui, M. D. et al. „Large Language Models Discriminate Against Speakers of German Dialects“ https://aclanthology.org/2025.emnlp-main.415/
- Johns Hopkins Hub (September 2025): „Multilingual artificial intelligence often reinforces bias“ https://hub.jhu.edu/2025/09/02/multilingual-artificial-intelligence-often-reinforces-bias/
- arXiv (April 2025): Position paper from Spring School 2025, Sorbonne University – „Emotionally Intelligent AI and Society“ https://arxiv.org/pdf/2506.12437v1
- European Commission: AI Act official page https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- EU Artificial Intelligence Act: Implementation Timeline
https://artificialintelligenceact.eu/implementation-timeline/
- HRD America (Februar 2025): „EU’s new AI Act restricts emotion recognition systems in workplaces“ https://www.hcamag.com/us/specialization/employment-law/eus-new-ai-act-restricts-emotion-recognition-systems-in-workplaces/524293

