Mentale Immunität durch KI? Schutz vor Indoktrination
Can AI Build Mental Immunity? Countering Indoctrination
Wissenschaftsdisziplinen
Informatik (85%); Politikwissenschaften (5%); Psychologie (10%)
Keywords
-
Generative AI,
Chatbots,
Psychological Inoculation,
Value Sensitive Design,
Informationwarfare
Künstliche Intelligenz verändert zunehmend, wie Menschen die Welt online und offline erleben. Wir interagieren nicht nur mit Chatbots und algorithmischen Systemen wie Empfehlungstools (zum Beispiel "wenn Ihnen das gefallen hat, könnte Ihnen auch dies hier gefallen"), sondern bewegen uns auch immer öfter in immersiven digitalen Umgebungen. Einige Forschende bezeichnen diese als synthetische Realitäten. Das sind Räume, in denen die Grenze zwischen Wirklichkeit und Virtualität verschwimmt, etwa in Online Spielen, virtuellen Communities oder Plattformen mit KI erzeugten Inhalten. Diese Technologien bieten neue Chancen, bringen aber auch erhebliche Risiken mit sich. Extremistische Gruppen, autoritäre Regierungen und mächtige private Akteure nutzen sie bereits, um die öffentliche Meinung zu beeinflussen. Sie verbreiten Hass, Falschinformationen und emotional aufgeladene Erzählungen, um Gesellschaften zu spalten und das Vertrauen in demokratische Institutionen zu schwächen. Gegenmaßnahmen wie das Löschen von Inhalten oder das Sperren von Nutzerinnen und Nutzern kommen oft zu spät und können unbeabsichtigte Folgen haben etwa Einschränkung der Meinungsfreiheit oder stärkere Polarisierung. Dieses Projekt verfolgt einen anderen Ansatz. Statt erst zu reagieren, wenn Schaden entstanden ist, wird untersucht, wie KI Menschen unterstützen kann, sich gegen Manipulation zu schützen. Grundlage ist die sogenannte Inokulationstheorie aus der Psychologie, ein Konzept ähnlich einer mentalen Impfung. Wer frühzeitig mit abgeschwächten Formen schädlicher Argumente konfrontiert wird, kann diese später besser erkennen und abwehren. Dafür wird ein Chatbot entwickelt, der mit Menschen in einen Austausch tritt und hilft, Manipulationsstrategien besser zu verstehen. Das Projekt hinterfragt gängige Annahmen über die Rolle von KI in der Mensch Technik Interaktion. Während viele Systeme Aufgaben automatisieren oder Entscheidungen erleichtern, geht es hier darum, wie KI auf ethisch vertretbare Weise das Denken von Menschen ändern kann. Untersucht wird, wie Überzeugung gezielt und verantwortungsvoll eingesetzt werden kann, besonders in Bereichen wie Extremismusprävention und Desinformation. Der Chatbot wird mit Fachleuten aus Psychologie, Bildung, digitaler Sicherheit und Zivilgesellschaft entwickelt. Zentrale Werte wie Empathie, Offenheit und Selbstbestimmung der Nutzenden werden identifiziert und in das System eingebracht. Trainiert wird der Chatbot mit realen Beispielen und in Testumgebungen erprobt, in denen verschiedene Gesprächsstile, emotionale Ausdrucksformen und Transparenzniveaus eingesetzt werden. Ziel ist es, KI Systeme zu schaffen, die aktiv kritisches Denken fördern. Besonders junge Menschen sollen besser vor manipulativen Einflüssen geschützt werden. Das Projekt zeigt, wie KI nicht zur Beeinflussung, sondern zur Stärkung der menschlichen Reflexion und verantwortungsvollen Teilhabe an einer offenen digitalen Gesellschaft beitragen kann.
- Technische Universität Wien - 100%