Generative KI in agenten-basierten Modellen
Generative AI in agent-based Models
Wissenschaftsdisziplinen
Informatik (100%)
Keywords
-
Agent-Based Modeling,
AI,
Generative Ai,
Social Sciences,
Large Language Models,
Interdisciplinary
In vielen Bereichen wissenschaftlicher Forschung benutzen wir Computermodelle, die menschliches Verhalten simulieren sollen. Dadurch können wir Forschung über Mobilität, soziale Medien oder auch Nachhaltigkeit betreiben. Damit diese Modelle gut funktionieren, müssen wir das menschliche Verhalten mit einfachen Regeln beschreiben. Oft ist menschliches Verhalten jedoch zu komplex, was dazu führt, dass die Modelle Fehler machen können. Durch die großen Fortschritte im Bereich Künstliche Intelligenz (KI) (z.B. ChatGPT und andere so- genannte large-language Modelle) haben wir nun aber die Möglichkeit, menschliches Verhalten auf einer ganz anderen Weise zu simulieren. Anstelle von starren Regeln können wir die KI fragen, wie sich Menschen in gewissen Situation verhalten oder entscheiden werden. Durch die große Menge an Daten, mit denen die KI trainiert wurde kann nicht nur Standardverhalten beschreiben werden, sondern auch sehr spezifisches Verhalten von Personen mit diversen Charakteristika. Das kann die Modelle realistischer und inklusiver gestalten. Diese Fusion von KI und Verhaltensmodellen birgt aber auch einige Risiken und Herausforderungen. Schlecht trainierte KI können beispielsweise sehr klischeehafte Verhaltensweisen erzeugen, die kein realistisches Bild der echten Welt zeigen. Andere KI-Modelle zeigen die Welt, wie sie sein soll anstelle von wie sie wirklich ist. Ein generelles Problem von KI Modellen ist weiters, dass die benutzen Trainingsdaten oft einen Bias haben, da gewisse Bevölkerungsgruppen überproportional und in manchen Fällen sogar exklusiv vertreten sind. Außerdem neigen viele KI-Modelle dazu, völlig falsche Aussagen zu generieren (KI-Halluzination), wenn sie keine korrekte Antwort finden. Diese Probleme sind besonders schwerwiegend, weil die Evaluation von KI-Modellen nicht immer einfach möglich ist. Für viele Fragestellungen, im Speziellen im Bereich menschliches Verhalten, ist die korrekte Antwort nicht bekannt und die Antworten der KI somit nicht ohne weiteres verifizierbar. Dieses Forschungsprojekt hat zum Ziel, die oben genannten Hindernisse und Risiken zu erforschen und bestmöglich zu beheben. Darüber hinaus wird ein Schema entwickelt, mit dem beurteilt werden kann welche large-language Modelle gut und welche weniger gut zur Vorhersage von menschlichem Verhalten genutzt werden können. Diese Methode kann in weiterer Folge auch verwendet werden, um neue, bessere KI-Modelle zu entwickeln. Zentrale Punkte des Projekts sind Inklusion (die Modelle sollen das Verhalten aller Menschen korrekt abbilden können, nicht nur Standardverhalten), Fairness (keine Personengruppen sollen benachteiligt werden) und Transparenz (die Entscheidungen und Aussagen des Modells sollen so gut wie möglich nachvollzogen werden können).
- Universität Graz - 100%