Bringen neue Technologien eine neue Verantwortung?

Liebe Studienteilnehmende

Hier finden Sie eine vorläufige Momentaufnahme der bisherigen Teilnehmenden an der Studie "Neue Technologien - neue Verantwortung?"

Die im Folgenden gezeigten Grafiken und Resultate sind als vorläufig zu betrachten. Ihre Aussagekraft ist damit begrenzt. Sie dürfen noch nicht kommuniziert oder veröffentlicht werden. 

Moralische Folgen und persönliche Nutzung neuer Technologien stehen im Vordergrund

Die vorläufigen Resultate zeigen, dass die moralischen Folgen neuer Technologien auf grosses Interesse bei den Teilnehmenden stossen. Rund zwei Drittel der Befragten interessieren sich dafür. Damit steht die Moral an erster Stelle, dicht gefolgt von der persönlichen Nutzung neuer Technologien. Die moralischen Folgen stossen ebenso auf mehr Interesse als die wirtschaftlichen und rechtlichen Aspekte. Dies belegt deutlich das Bedürfnis der Schweizer Bevölkerung, die moralischen Folgen neuer Technologien stärker in den Blick zu nehmen.

Grafik 1: Interesse an neuen Technologien (Teilnehmerzahl = 736).

Nur eine Minderheit nutzt regelmässig moderne Technologien künstlicher Intelligenz

Künstliche Intelligenz stellt eine neue Technologie dar, die immer mehr Anwendungen findet. Zwar ist die Nutzung von Internet-Suchmaschinen oder intelligenten Übersetzungsprogrammen weit verbreitet, doch nimmt der Anteil der Personen, die Technologien künstlicher Intelligenz ausprobiert haben oder regelmässig nutzen, schnell ab, wenn man sich modernere Anwendungen ansieht. Beispielsweise hat nur rund jede dritte Person bereits Erfahrung mit Chatbots, wie das in den Medien vielfach erwähnte ChatGPT. Bei selbstfahrenden Autos oder Bildererstellungsprogrammen ist es noch jede zehnte Person.

Grafik 2: Nutzung neuer Technologien (Teilnehmerzahl = 731).

Kritische Perspektiven auf künstliche Intelligenz überwiegen

Gesamthaft stehen die Teilnehmenden Technologien künstlicher Intelligenz kritisch gegenüber. Zwar befürwortet ein Grossteil der Befragten das Potential künstlicher Intelligenz für die Wissenschaft, doch wird die Sorge, dass künstliche Intelligenz Arbeitsplätze wegnimmt, die Privatsphäre einschränkt und eine Gefahr für das Zusammenleben ist, von rund jeder zweiten Person geteilt. Gerade noch jede zehnte Person meint, dass künstliche Intelligenz unsere Gesellschaft besser machen wird. Diese weitverbreiteten Sorgen müssen durch die Öffentlichkeit, den Gesetzgeber und die Wissenschaft anerkannt werden.

Grafik 3: Herausforderungen künstlicher Intelligenz (Teilnehmerzahl = 615).

Moralische Rechte für künstliche Intelligenz sind kaum ein Thema

Je ähnlicher moderne Technologien künstlicher Intelligenz dem Menschen werden, desto mehr stellt sich die Frage, ob sie einen moralischen Wert haben oder moralische Rechte besitzen sollten. Die Teilnehmenden sind jedoch kaum der Meinung, dass dies bereits der Fall ist. Gerade einmal jede zehnte Person stimmt zu, dass künstliche Intelligenz einen moralischen Wert besitzt oder Rechte haben sollte. Damit liegt künstliche Intelligenz nur leicht vor dem einfachen Computerprogramm und deutlich hinter dem Menschen oder Tieren. Ein Vorstoss, künstlicher Intelligenz moralische Rechte zu verleihen, würde also nur von einer ganz kleinen Minderheit unterstützt.

Grafik 4: Zustimmung zur Frage, welche Dinge moralischen Wert oder moralische Rechte haben (sollten) (Teilnehmerzahl = 619).