Sozialer Status einer KI beeinflusst ihre Akzeptanz
Wie bewerten Menschen die Leistung eines KI-Systems? Neue Forschungsresultate einer Gruppe von Soziologen und einer Soziologin der Universität Luzern zeigen, dass selbst nicht-menschliche Akteure sozialen Vorurteilen ausgesetzt sind.
Stellen Sie sich zwei Ärzte mit identischen Fähigkeiten und tadelloser Leistung vor: Würde sich Ihr Urteil über ihre Handlungen ändern, wenn einer in einem erstklassigen Krankenhaus arbeitet oder männlich oder weiblich ist? Und was, wenn einer dieser Ärzte gar keine Person, sondern eine Künstliche Intelligenz (KI) wäre?
Ein kürzlich im Fachjournal «Sociological Science» veröffentlichter Aufsatz beleuchtet, wie der soziale Status einer KI unsere Wahrnehmung auf diese beeinflusst. Die Autorin und die Autoren argumentieren, dass KI – ähnlich wie Menschen oder Institutionen – einen «sozialen Status» haben kann. Je höher dieser wahrgenommene Status einer KI ausfalle, desto weniger fänden Menschen den Einsatz dieser KI fragwürdig.
Zugehörigkeit zählt – auch wenn man eine KI ist
Die Autoren und die Autorin des Artikels – Dr. Patrick Schenk, Vanessa A. Müller und Luca Keiser vom Soziologischen Seminar – fanden heraus, dass Menschen den Einsatz von KI moralisch betrachtet akzeptabler finden, wenn diese mit hochrangigen Organisationen assoziiert wird. Gleichzeitig schneiden menschliche Akteure in dieser Einschätzung besser ab als KI, selbst wenn die KI in bestimmten Aufgaben ebenso gut oder manchmal sogar besser abschneidet.
Im Rahmen der Studie bewerteten fast 600 Teilnehmende die Akzeptanz verschiedener Akteure (menschliche, KI und einfache Computerprogramme) bei drei verschiedenen Szenarien: Krebsdiagnosen in einem Krankenhaus, Faktenprüfung in einer Zeitungsredaktion und Personalentscheidungen in einer Personalagentur. Die Ergebnisse der Studie zeigen, dass KI-Systeme ähnlich wie einfache Computerprogramme wahrgenommen werden, ihr Einsatz jedoch als moralisch fragwürdiger gewertet wird als derjenige eines menschlichen Akteurs. Diese Präferenz für Menschen bleibt unabhängig davon bestehen, wie effektiv die jeweiligen Akteure in den untersuchten Aufgaben abschneiden.
Darüber hinaus haben Faktoren wie Geschlecht oder das Versehen der KI mit einem menschlichen Namen keinen signifikanten Einfluss auf die Einschätzung, aber das Ansehen der Organisation schon. Wenn eine KI mit einer renommierten Institution verbunden ist – so der Befund –, bewerten die Menschen sie positiver.
Bewusstsein schaffen, um Vorurteile zu überwinden
Die Studie verdeutlicht, wie soziale Vorurteile – wie das Verbinden von Ansehen mit Wert – unsere Sichtweise auf neue Technologien prägen. Die Ergebnisse deuten darauf hin, dass Menschen möglicherweise eher bereit sind, KI zu vertrauen und zu akzeptieren, wenn sie von angesehenen Institutionen unterstützt wird, unabhängig von ihrer tatsächlichen Leistungsfähigkeit. Laut den Autoren und der Autorin der Studie könnte das Erkennen dieser Neigung zu «Status-Vorurteilen» dazu beitragen, gerechtere und objektivere Bewertungen von KI-Systemen in der Gesellschaft zu fördern.
Die Studie, die unter dem Titel «Social Status and the Moral Acceptance of Artificial Intelligence» veröffentlicht wurde, ist Teil des Nationalfonds-Projekts «Artificial Intelligence and Moral Decision-Making in Contemporary Societies: An Empirical Sociological Investigation», geleitet von Prof. Dr. Gabriel Abend, Professor für Soziologie, und Dr. Patrick Schenk.