Erkennen von Genderbias in Kinderbüchern
Detecting gender bias in children´s books
Wissenschaftsdisziplinen
Informatik (40%); Psychologie (10%); Soziologie (10%); Sprach- und Literaturwissenschaften (40%)
Keywords
-
Gender Bias,
Natural Language Processing,
Children'S Literature,
Content Analysis
Wird ein Mädchen gebeten, einen Mathematiker zu zeichnen, wird es mit doppelter Wahrscheinlichkeit einen Mann statt eine Frau zeichnen, während Jungen fast durchweg einen Mann zeichnen. Eine ähnliche Tendenz, Berufe wie Feuerwehrleute, Chirurgen und Kampfpiloten dem männlichen Geschlecht zuzuordnen, wurde bereits bei Kindern im Alter von 5 Jahren beobachtet. Geschlechterstereotypen bilden sich schon früh in der kindlichen Entwicklung heraus und setzen sich in der Jugend bis ins Erwachsenenalter fort, was sich langfristig auf die emotionale und kognitive Entwicklung auswirkt, die Wahl von Tätigkeiten und Berufen sowie akademische Leistung prägt. In dieser Arbeit schlagen wir eine Lösung vor, um die Unter- und Fehlrepräsentation von Geschlechtern in Texten für Kinder im Vor- und Grundschulalter zu beseitigen. In Kinderbüchern, die für die Entwicklung von Kindern von entscheidender Bedeutung sind, überwiegen männliche Charaktere gegenüber weiblichen, nicht-binäre Charaktere sind praktisch nicht vorhanden und Geschlechterrollen und Stereotypen werden verstärkt. Das Projekt verfolgt ein zweifaches Ziel. Erstens wollen wir verschiedene Aspekte im Zusammenhang mit der Unter- und Fehlrepräsentation der Geschlechter identifizieren und messen. In diesem Zusammenhang könnten beispielsweise der Anteil männlicher und weiblicher Charaktere, geschlechtsspezifischer Pronomen und die Geschlechterrollen verstärkende Sprache, von Bedeutung sein. Sobald verlässliche Messwerte vorliegen, werden sie zu einer Bewertung der Geschlechterrepräsentation kombiniert. Dieser Wert sollte leicht zu interpretieren sein, um das öffentliche Bewusstsein zu schärfen und Eltern, Erziehern und Entscheidungsträgern als Hilfe zu dienen. Zweitens wollen wir nach der Berechnung dieses Wertes Best-Practice-Leitlinien für dessen Validieren entwickeln, um Transparenz und Genauigkeit der Methodik zu gewährleisten. In diesem Schritt werden wir uns vor allem auf die Meinung von Gender-Experten und Linguisten stützen. Der innovative Charakter dieses Projekts liegt in der Integration der folgenden quantitativen und qualitativen Forschungstechniken. Zum einen wird das Messverfahren auf modernen Algorithmen der künstlichen Intelligenz (KI) zur Analyse von Texten aufbauen. Neue Fortschritte auf diesem Gebiet ermöglichen es den Algorithmen, den Kontext, in dem Wörter erscheinen, zu berücksichtigen, anstatt die Wörter einzeln zu analysieren. Durch die Berücksichtigung des Kontextes sind solche Algorithmen vielversprechende Werkzeuge für die Quantifizierung komplexerer Komponenten von Genderbias in Textdaten. Da jedoch bekannt ist, dass KI-Techniken in Bezug auf Transparenz und Interpretationsfähigkeit Nachteile aufweisen können, wollen wir uns bei unserer Analyse nicht ausschließlich auf sie stützen. Wir werden sie insbesondere durch den Einsatz moderner qualitativer Methoden für die Literaturrecherche, die Datenerhebung und das Validierungsverfahren ergänzen.
Geschlechterstereotypen bilden sich schon früh in der kindlichen Entwicklung und werden über die gesamte Jugend bis ins Erwachsenenalter übertragen und hinterlassen lang anhaltende Auswirkungen, die sich auf die Berufswahl sowie akademische Leistungen auswirken können. Insbesondere Bücher können einen erheblichen Einfluss haben, da ihre Charaktere als Vorbilder für Weiblichkeit und Männlichkeit dienen kleine Kinder. Daher kann eine Unter- und Fehldarstellung des Geschlechts in der Kindertextliteratur zur Verinnerlichung und Verstärkung negativer Stereotypen beitragen. In diesem Projekt nutzen wir Natural Language Processing (NLP), eine Methode der künstlichen Intelligenz, die es Computern ermöglicht, die natürliche Sprache des Menschen zu verstehen, um verschiedene Aspekte geschlechtsspezifischer Vorurteile automatisch für Kinderliteratur zu messen. Als erster Schritt haben wi aktuelle Literatur aus Sozialwissenschaften durchgesehen und relevante Dimensionen geschlechtsspezifischer Vorurteile in Kinderbüchern identifiziert. Die Darstellung des Geschlechts unter den Charakteren, ihre zentrale Bedeutung für die Geschichte, stereotypische Darstellungen in Bezug auf Berufe, Aussehen, Intelligenz, Emotionen, Spielzeug und Interessen, körperliche Eigenschaften und Stärke sowie Entscheidungsfreiheit vs. Passivität der Charaktere sollten dabei berücksichtigt werden. Darüber hinaus sollte auch das Vorhandensein stereotyper Sprache erkannt werden. Im Rahmen des Projekts haben wir NLP Tools eingesetzt, um automatisch interpretierbare Maßnahmen zur geschlechtsspezifischen Voreingenommenheit für eine umfangreiche Sammlung der identifizierten Dimensionen zu erstellen. Darüber hinaus haben wir eine "datengesteuerte" Methode zur Messung von Voreingenommenheit vorgeschlagen, indem wir Worteinbettungen (word embeddings) nutzen, bei denen es sich um Muster handelt, die aus einer großen Textsammlung gelernt wurden. Dadurch können wir eine allgemeine (wenn auch weniger interpretierbare) Bias Maßzahl für eine ganze Geschichte berechnen. Um die Interpretierbarkeit zu verbessern, schlagen wir schließlich vor, die Sammlung interpretierbarer Maße zu verwenden, um das eher per Blackbox berechnete Bias-Maß zu erklären, um eine Bewertungsfunktion abzuleiten, die es ermöglicht zu verstehen, welche Dimensionen am meisten zur Erklärung des Bias beitragen. Wir veranschaulichen den Ansatz anhand einer Sammlung von 30 klassischen Märchen.
- Technische Universität Wien - 100%
Research Output
- 1 Publikationen
- 1 Datasets & Models
-
2024
Titel DETECTING GENDER BIAS IN FAIRY TALES Typ Other Autor Camilla Damian Link Publikation