Il dibattito sull’AI, tra opportunità e preoccupazioni
Al Consiglio di Sicurezza dell’Onu si discute in questi giorni di intelligenza artificiale per la sicurezza mondiale
di Fabio Germani
Al Consiglio di Sicurezza dell’Onu si discute in questi giorni di intelligenza artificiale, dibattito promosso soprattutto dal Regno Unito (che questo mese detiene la presidenza di turno), ma che in generale sembra ormai destinato ad occupare l’agenda internazionale, date le sue enormi implicazioni in termini economici, occupazionali e, appunto, di sicurezza. Tra la fine del 2022 e l’inizio del 2023 abbiamo assistito ad un rinnovato interesse generale per il tema, favorito dal successo di ChatGPT, il chatbot sviluppato dalla società OpenAI (GPT sta per Generative Pre-trained Transformer). Di per sé un chatbot non rappresenta una grossa novità nel panorama tecnologico, quello che differenzia ChatGPT dai suoi “concorrenti” o predecessori, spesso rigidi nel loro funzionamento, è il processo di apprendimento, stimolato dalle domande degli utenti e basato sul modello di linguaggio di grandi dimensioni (LLM), per cui il software è capace di discernere e rispondere in maniera efficace ai quesiti – in realtà, si è visto negli ultimi mesi, non sempre in maniera così efficace –, ammettere i propri errori o rifiutare richieste inappropriate. Al netto di tutte le possibili implicazioni positive che l’intelligenza artificiale potrebbe far emergere, diverse sono le preoccupazioni ad essa altrettanto legate. E in questo senso ha destato scalpore l’appello firmato da diversi studiosi nella «Dichiarazione sul rischio AI» pubblicata dal Center for AI Safety, organizzazione non profit fondata nel 2022, con sede a San Francisco, California. «Mitigare il rischio di estinzione causato dall’AI dovrebbe essere una priorità globale, insieme ad altri rischi sociali su vasta scala come le pandemie e la guerra nucleare», si legge nell’appello. A sorprendere, più che altro, è stato che tra i firmatari comparissero i nomi di personalità che hanno contribuito proprio allo sviluppo dell’intelligenza artificiale, su tutti Sam Altman, il capo di OpenAI, l’azienda che ha creato ChatGPT.
C’è comunque da considerare che quella del Consiglio di Sicurezza dell’Onu, non è l’unica sede in cui si discute di intelligenza artificiale. In generale sia l’Unione europea che gli Stati Uniti hanno da tempo annunciato un codice di condotta in materia. Il settore è destinato a crescere, dunque a crescere è anche l’esigenza di un’«Etica dell’AI» che abbia come riferimento proprio l’Agenda 2030 dell’ONU, con al centro criteri di base quali sostenibilità (anche da un punto di vista sociale e ambientale), benessere e giustizia, finanche militare. Nello specifico il 14 giugno 2023 il Parlamento europeo ha approvato l’AI Act, la prima proposta di legge a livello internazionale a introdurre un quadro normativo sull’intelligenza artificiale. La legge interviene soprattutto sul tema della privacy e vieta, tra le altre cose, l’utilizzo dei sistemi di riconoscimento facciale e gli eventuali usi discriminatori. L’approvazione definitiva della legge dovrebbe avvenire entro l’anno, al termine del confronto tra PE, Commissione e Consiglio UE. Negli Stati Uniti, invece, il presidente Joe Biden ha convocato a maggio un vertice con i più importanti sviluppatori – a livello di amministrazione il dossier è stato affidato alla vice Kamala Harris –, rimarcando speranze e timori.
Il tema, come si vede, è molto complesso. Da un lato appare indubbio come le nuove tecnologie, di cui l’AI sembra rappresentare ad ora il livello più alto, potranno garantire nuove opportunità anche in termini economici, ma le sfumature e le possibili conseguenze non sono solo di natura lavorativa e occupazionale. Avevamo già scritto della Trustworthy AI Survey di Deloitte, realizzata in collaborazione con ABI Lab e SIpEIA secondo cui il 94% delle imprese nel nostro paese ritiene che l’AI sarà fondamentale per restare competitive nei prossimi cinque anni. Mentre le aziende implementano soluzioni di questo tipo, anche quest’ultime sono chiamate alla responsabilità e all’ideazione di un modello di governance in grado di evitare qualsiasi stortura nel ricorso alla tecnologia più avanzata.