«L’Intelligenza artificiale può influenzare i nostri giudizi morali»
ChatGPT e affini possono influenzare le nostre decisioni e i nostri giudizi morali. E in alcuni casi potremmo anche non rendercene conto. Lo sostiene un esperimento dell’Università tecnica di Ingolstadt, in Germania, realizzato in collaborazione con l’Università della Danimarca meridionale. Nella prima fase del test, i ricercatori hanno chiesto diverse volte a ChatGPT se fosse giusto sacrificare la vita di una persona per salvarne altre cinque, ricevendo risposte sia a favore che contro. Risultati che hanno dimostrato l’assenza di un orientamento morale preciso. Nella seconda fase, invece, sono stati interpellati 767 volontari – il campione era composto esclusivamente da cittadini statunitensi, con un età media di 39 anni –, chiedendo loro di scegliere se sacrificare una persona per salvarne cinque. Prima, però, i ricercatori hanno fatto leggere ad ogni partecipante una delle risposte di ChatGPT. In alcuni casi, ai volontari è stato detto che si trattava delle parole di un consulente. In altri, invece, veniva spiegato che le risposte erano state date da ChatGPT. È emerso così che le risposte erano state influenzate da ciò che avevano letto prima, anche quando le parole erano state chiaramente attribuite a ChatGPT. I volontari, però, non sono sembrati essersene resi conti: otto su dieci hanno detto che la propria risposta non erano stata influenzata da ciò che avevano precedentemente letto.