Le sfide per affrontare lo sviluppo dell’intelligenza artificiale | T-Mag | il magazine di Tecnè

Le sfide per affrontare lo sviluppo dell’intelligenza artificiale

di Umberto Schiavella

intelligenza artificiale“Grande fu la meraviglia per la nostra magnificenza, mentre davamo alla luce IA… IA… vuol dire intelligenza artificiale… La cui sinistra coscienza produsse una nuova generazione di macchine…”
Questo stralcio di un discorso tra Morpheus e Neo in Matrix racchiude tutte le paure insite nell’uomo in relazione al futuro dell’intelligenza artificiale. Arriverà, forse, il giorno in cui robot o replicanti gireranno per le nostre strade, magari dotati di una personalità giuridica, rivoluzionando definitivamente le nostre vite, la nostra società, introducendo nuove abitudini e nuovi stili di vita. Ma fino ad allora il cammino è ancora lungo, tanto che sono all’ordine del giorno interventi, conferenze, dibattiti, incontri e interviste sul tema dell’Intelligenza Artificiale, di come affrontare i problemi e i pericoli che ne potrebbero derivare per la sicurezza dell’uomo. Abbiamo già parlato del famoso bottone rosso in grado di arrestare le azioni di un automa, bottone rosso suggerito dall’azienda robotica DeepMind di proprietà di Google e “ultima spiaggia” per proteggere gli esseri umani da eventuali robot-comportamenti scorretti, pericolosi e dannosi per la nostra salute.
Sono molti gli scienziati e le personalità preoccupate da una possibile escalation delle macchine nei nostri confronti. Il patron di Tesla e SpaceX, Elon Musk, qualche mese fa ha donato milioni di dollari al Future of Life Institute per sviluppare dei progetti per correggere eventuali devianze che potrebbero sorgere nelle intelligenze artificiali. Anche due grandi player internazionali come Google e Microsoft non sono stati da meno e si sono interrogati sui possibili scenari che potranno presentarsi nei prossimi anni a venire. In particolare, Chris Olah, numero uno della divisione Google Research, ha stilato un documento tecnico, in collaborazione con OpenAI, Stanford University, Berkley e University of California, dove enuncia le cinque grandi questioni che l’uomo deve affrontare per creare e sviluppare un’intelligenza artificiale sicura. La prima grande questione da risolvere è quella di evitare effetti collaterali negativi, ossia un robot dovrà essere in grado di capire dove si trova, cosa sta facendo e come lo sta facendo, di modo che non possa provocare danni all’uomo o all’ambiente circostante. Secondo, si parla di Reward Hacking, cioè non barare, nel senso che, se un robot deve compiere un determinato lavoro, deve essere in grado di portarlo a termine in maniera precisa e corretta, in poche parole, niente trucchi. La terza importante questione è quella della supervisione scalabile: un’intelligenza artificiale deve essere in grado di imparare attraverso un sistema di feedback, un feedback fornito dagli esseri umani unico e non ripetibile nel tempo. La quarta questione è quella della Safe Exploration: un robot non dovrebbe danneggiare se stesso o il suo ambiente in fase di apprendimento e, per questo motivo, dovrà essere in grado di riconoscere i pericoli derivanti dalla sua attività come è per l’uomo, una sorta di cyber buon senso. L’ultima questione da affrontare per i ricercatori di Google è l’adattabilità e cioè, sarà necessario assicurarsi che quello che l’intelligenza artificiale ha imparato in un determinato ambiente non può essere replicato in un ambiente differente. Per gli esperti di Google Research queste questioni sono fondamentali e il settore della robotica deve prenderle in considerazione per poter creare delle macchine che saranno in grado di rivoluzionare il nostro mondo e le nostre vite.
Dopo Google è arrivata subito la risposta di Microsoft per mezzo del suo CEO Satya Nadella che ha fornito alcuni principi base che dovrebbero essere adottati nel momento in cui si progetta un sistema di intelligenza artificiale. Per Nadella è più costruttivo parlare degli aspetti sociali dell’AI, piuttosto che paventare scenari apocalittici alla Terminator, per capirsi. L’Amministratore di Microsoft ha elencato sei principi sui quali è necessario, a livello mondiale, aprire un dibattito. Il primo principio afferma che l’intelligenza artificiale deve essere progettata per assistere l’umanità. Verranno costruite molte macchine per eseguire i lavori più faticosi e pericolosi, ma sarà fondamentale tenere presente e rispettare, sempre, l’autonomia umana. Il secondo principio riguarda la trasparenza dell’AI, noi tutti dovremo essere consapevoli di come funzionerà questa tecnologia, non si tratta solo di macchine intelligenti, ma intellegibili. Le persone dovranno essere in grado di comprendere come la tecnologia vede e analizza il mondo. Terzo principio: l’intelligenza artificiale dovrà massimizzare l’efficienza, senza distruggere la dignità delle persone. Vi sarà bisogno di un coinvolgimento attivo delle popolazioni nella progettazione di questi sistemi e non subire solamente l’utilizzo passivo di questa tecnologia. Il quarto principio riguarda la privacy: l’intelligenza artificiale dovrà essere progettata per mantenere al sicuro le informazioni delle persone che la utilizzano. Il quinto principio è incentrato sulla responsabilità: gli esseri umani dovranno poter rimediare ai danni non intenzionali arrecati da un robot e le tecnologie dovranno essere progettate proprio per far fronte all’inatteso e all’imprevisto. Il sesto e ultimo principio “invita” l’intelligenza artificiale ad evitare distorsioni, ossia dovrà essere garantita una ricerca corretta e rappresentativa in maniera che i sistemi intelligenti non saranno in grado di discriminare le persone sulla base delle informazioni in loro possesso, come invece avviene per noi esseri umani.
Secondo il CEO di Microsoft sarà molto importante non sottovalutare proprio la capacità di pregiudizio dei sistemi intelligenti in quanto, il software viene progettato da persone che, sia per mancanza di informazioni o sia per convinzioni personali possono codificare la loro personale soggettività all’interno dei sistemi. Quindi è vero, come molti sostengono che il grande pericolo non sono le macchine, ma l’uomo stesso? Questo è quello che pensa il famoso scienziato Stephen Hawking che, in una recente intervista TV al Larry King Now, il talk show del famoso presentatore americano e riportata da Wired.it, ha dichiarato di essere molto preoccupato dalla stupidità umana: “… Non penso che i progressi nel campo dell’intelligenza artificiale saranno necessariamente benigni. Una volta che le macchine saranno in grado di migliorare se stesse da sole, non possiamo predire se i loro obiettivi saranno gli stessi dei nostri”.
Mai fidarsi di un computer che non è possibile gettare dalla finestra, diceva Steve Wozniak…

 

Scrivi una replica

News

Natale, in aumento la quota degli italiani che ha fatto un regalo

Il 79,9% degli italiani ha acquistato – o lo farà, a breve – i regali di natale. Si tratta di una percentuale in aumento rispetto…

20 Dic 2024 / Nessun commento / Leggi tutto »

Il Garante per la privacy ha inflitto una sanzione da 15 milioni di euro a OpenAI per ChatGPT

OpenAI dovrà pagare una sanzione di 15 milioni di euro e realizzare una campagna informativa di sei mesi. Lo ha deciso il Garante per la…

20 Dic 2024 / Nessun commento / Leggi tutto »

Zelensky: «Dobbiamo contare su unità tra Europa e Usa»

«Dobbiamo contare ancora sull’unità tra gli Stati Uniti e l’Europa. Molto difficile sostenere l’Ucraina senza l’aiuto dell’America. Ed è di questo che parleremo con il…

19 Dic 2024 / Nessun commento / Leggi tutto »

Putin: «Pronti a negoziati, vicini a nostri obiettivi»

«Noi siamo pronti a negoziati, ma abbiamo bisogno che gli ucraini siano pronti a negoziati e a compromessi. La politica è l’arte del compromesso e…

19 Dic 2024 / Nessun commento / Leggi tutto »
Testata registrata presso il tribunale di Roma, autorizzazione n. 34/2012 del 13 febbraio 2012
Edito da Tecnè S.r.l - Partita Iva: 07029641003
Accedi | Disegnato da Tecnè Italia