Le nuove tecnologie comportano una nuova responsabilità?

I grafici e i risultati riportati di seguito sono da considerarsi preliminari. Il loro valore informativo è pertanto limitato. Non possono ancora essere comunicati o pubblicati.

Le conseguenze morali e l'uso personale delle nuove tecnologie sono in primo piano

I risultati preliminari mostrano che le conseguenze morali delle nuove tecnologie sono di grande interesse per i partecipanti. Circa due terzi degli intervistati sono interessati. Così, la moralità viene prima di tutto, seguita dall'uso personale delle nuove tecnologie. Le conseguenze morali sono più interessanti degli aspetti economici e giuridici. Ciò dimostra chiaramente la necessità della popolazione svizzera di prestare maggiore attenzione alle conseguenze morali delle nuove tecnologie.

Figura 1: Interesse per le nuove tecnologie (numero di partecipanti = 736).

Solo una minoranza utilizza regolarmente le moderne tecnologie di intelligenza artificiale

L'intelligenza artificiale è una nuova tecnologia che sta trovando sempre più applicazioni. Sebbene l'uso dei motori di ricerca su Internet o dei programmi di traduzione intelligenti sia diffuso, la percentuale di persone che hanno provato le tecnologie di intelligenza artificiale o le utilizzano regolarmente diminuisce rapidamente quando si esaminano applicazioni più moderne. Ad esempio, solo una persona su tre ha già esperienza con i chatbot, come ChatGPT, che viene spesso citato dai media. Nel caso delle auto a guida autonoma o dei programmi di creazione di immagini, si tratta ancora di una persona su dieci.

Figura 2: Uso delle nuove tecnologie (numero di partecipanti = 731).

Prevalgono le prospettive critiche sull'intelligenza artificiale

Nel complesso, i partecipanti sono critici nei confronti delle tecnologie di intelligenza artificiale. Sebbene la maggior parte degli intervistati sia favorevole al potenziale dell'intelligenza artificiale per la scienza, la preoccupazione che l'intelligenza artificiale sottragga posti di lavoro, limiti la privacy e rappresenti una minaccia per la convivenza è condivisa da circa una persona su due. Solo una persona su dieci pensa che l'intelligenza artificiale migliorerà la nostra società. Queste preoccupazioni diffuse devono essere riconosciute dall'opinione pubblica, dai legislatori e dalla comunità scientifica.

Figura 3: Sfide dell'intelligenza artificiale (numero di partecipanti = 615).

I diritti morali per l’intelligenza artificiale non sono certo un problema

Più le moderne tecnologie di intelligenza artificiale diventano simili agli esseri umani, più si pone la questione se abbiano un valore morale o debbano avere diritti morali. Tuttavia, è improbabile che i partecipanti credano che questo sia già il caso. Solo una persona su dieci concorda sul fatto che l’intelligenza artificiale abbia un valore morale o debba avere dei diritti. Questo pone l’intelligenza artificiale solo leggermente più avanti dei semplici programmi per computer e ben al di sotto degli esseri umani o degli animali. Una spinta a dare diritti morali all’intelligenza artificiale sarebbe quindi sostenuta solo da una piccolissima minoranza.

Figura 4: Concordare con la domanda su quali cose (dovrebbero) avere un valore morale o dei diritti (numero di partecipanti = 619).