Neue Forschungsergebnisse: Sind Chatbots altruistischer und fairer als Menschen?

Das Sozialverhalten von ChatGPT ähnelt stark dem des Menschen. Doch es gibt interessante Unterschiede, wie neue Forschungsergebnisse zeigen. Sie legen die Frage nahe, ob KI so etwas wie eine eigene Persönlichkeit entwickeln kann.

6 Minuten
Ein Passagier erkundigt sich bei Roboter Pepper am Flughafen von Riga. Dank KI können Maschinen die Rolle eines sozialen Gegenübers übernehmen.

Eliza zog Menschen in ihren Bann. Der erste Chatbot der Geschichte verleitete sie, ihm ihre intimsten Geheimnisse anzuvertrauen. Als Joseph Weizenbaum, der Eliza Ende der 1960er Jahre am Massachusetts Institute of Technology in Boston programmierte, seiner Sekretärin beim Chat mit dem Bot über die Schulter schaute, bat diese ihn, den Raum zu verlassen. Die Anekdote zeigt, dass Computerprogramme schon vor über 50 Jahren von Menschen als soziales Gegenüber wahrgenommen wurden.

Heutige Sprach-KIs wie ChatGPT oder Gemini von Google zeigen ein viel komplexeres Sozialverhalten, als die nach einfachen Regeln arbeitende Eliza. Jüngste Forschungsergebnisse legen sogar die Frage nahe, ob diese Computerprogramme so etwas wie eine individuelle Persönlichkeit haben. Vor allem dann, wenn ihr Sozialverhalten vom typisch menschlichen abweicht. So zeigt sich ChatGPT vertrauensvoller, fairer und kooperativer als Durchschnittsmenschen.

Spiele testen Tugenden wie Altruismus

Wissenschaftler um Qiaozhu Mei von der University of Michigan in Ann Arbor haben mit ChatGPT Spiele gespielt, die soziale Tugenden wie Kooperation, Altruismus oder Vertrauen testen. Meist springt dabei ein höherer Gewinn für alle Spieler heraus, wenn sie kooperieren, statt egoistisch zu handeln. Die Forscher berichten darüber im Wissenschaftsmagazin „PNAS“.