DOBBIAMO AVER PAURA DELL’INTELLIGENZA ARTIFICIALE?

GEOFFREY HINTON LASCIA GOOGLE: “L’INTELLIGENZA ARTIFICIALE E’ PERICOLOSA”

Lui è uno scienziato, uno dei pionieri dell’intelligenza artificiale (IA) e ora se ne va, preoccupato delle conseguenze di questa tecnologia. “Nessuno può impedire che l’uomo la usi a fini malvagi” – dice.

L’INTELLIGENZA ARTIFICIALE COME LA BOMBA ATOMICA?

All’inizio degli anni ’40 molti scienziati denunciarono il rischio per l’umanità se la ricerca sulla fissione dell’uranio fosse stata portata avanti per fini militari. Tra questi scienziati critici e preoccupati c’era anche Enstein. Sappiamo com’è andata a finire.

Altri fisici invece, tra cui Oppenheimer e l’italiano Enrico Fermi non solo contribuirono alla ricerca sulla fissione dell’uranio, ma parteciparono attivamente allo sviluppo della bomba atomica.

Dunque, inutile dirlo: l’intelligenza artificiale andrà avanti, nonostante le preoccupazioni di Hinton.

Gli impatti dell’IA saranno poderosi e a breve termine. A differenza della bomba atomica, l’IA in pochi anni cambierà anche la vita quotidiana delle persone (almeno nei paesi sviluppati) e persino la politica.

MA SONO DAVVERO SISTEMI “INTELLIGENTI”?

Dipende cosa intendiamo per intelligenza. In generale direi di sì, anche se la loro intelligenza è molto diversa dalla nostra. Sono in grado di apprendere, di evolvere la loro base di conoscenza, di comprendere il nostro linguaggio e il significato di un testo, di fare scelte e prendere decisioni.

A differenza del cervello umano che opera per analogia e classificazione, gli algoritmi operano attraverso metodi matematico-statistici in grado di mettere in relazione le sequenze di parole e di tirare fuori il significato, il messaggio, il contenuto di una frase.

Sistemi di questo tipo si basano su algoritmi già operativi da qualche anno nei grandi computer di Facebook, Amazon, Google, Apple, YouTube ecc.

MA SE FUNZIONA DA NNI PERCHE’ L’IA FA PAURA OGGI?

Nel 1985 all’Università già studiavo i sistemi intelligenti, le reti neurali, le serie di Markov che sono ancora usati negli algoritmi odierni. A quel tempo sentivo dire: “Nel 2000 i computer saranno intelligenti”: sbagliavano. Dopo 40 anni, ora finalmente ci sono applicazioni operative.

Facebook, Google ecc. usano l’IA per fini esclusivamente commerciali, per inviarci pubblicità e contenuti tarati sui nostri gusti. È un’applicazione che non percepiamo “pericolosa”, anche se, in verità, è molto subdola perché opera a nostra insaputa sui nostri dati personali.

Poi è arrivata ChatGPT di OpenAI supportata da Microsoft, che ha varcato la soglia che noi percepiamo come “soglia del pericolo”: ha addestrato l’algoritmo per generare un sistema in grado di comunicare con noi con linguaggio umano. E anche Google, Amazon, Apple stanno sperimentando sistemi analoghi, in una competizione tecnologica sfrenata. Che ormai non si può fermare.

LA VISIONE ANTROPOMORFA DELL’INTELLIGENZA ARTIFICIALE

In effetti, da utente di ChatGPT posso confermare che è possibile “conversare” amabilmente con l’algoritmo, praticamente su qualsiasi tematica. Il sistema risponde, in modo cortese – non sempre appropriato: la sua base di conoscenza è ancora in costruzione – ma comunque in grado di instaurare un dialogo che simula bene la modalità umana.

È un algoritmo che è stato addestrato con miliardi di pagine web ed enciclopedie per acquisire la conoscenza di quasi l’intero scibile umano e presentarlo in linguaggio simile al nostro. Direi che funziona bene. Sembra di parlare con una persona. Che però non è una persona. La macchina non ha alcuna coscienza di sé, ovviamente. I programmatori evitano confusione in tal senso: a precisa domanda se avesse un nome, ChatGPT mi ha risposto “No, non ho un nome umano”. Attualmente, non ha ancora una gran conoscenza di me, ossia della persona con cui sta dialogando, solo perché in questa versione beta non mi pare acceda ancora al mio profilo completo (di cui certamente potrà disporre) ma se lo può costruire dai testi che io stesso gli fornisco. A breve potrà adeguare il suo linguaggio, il suo stile di risposta, in funzione di me, del mio modo di comunicare, delle mie idee, dei miei gusti.

Se gli aggiungono la voce – cosa tecnicamente fattibile, ma serve potenza di calcolo – il risultato sarà simile a quello visto nei film di fantascienza. Ora che HAL non è più una fantasia da sceneggiatori, avere HAL nel proprio Pc o cellulare ci spaventa.

ALLORA PERCHE’ L’IA E’ PERICOLOSA?

Molti ritengono che, essendo la base di conoscenza formata da miliardi di pagine web, che contengono anche miliardi di potenziali sciocchezze (incluse queste mie righe), questi sistemi potrebbero diffondere in modo globale quelle sciocchezze. Questo è parzialmente vero per certe questioni minori. Ma per le questioni importanti, per i temi scientifici, sanitari o culturali, i programmatori si sono premurati nell’aver imbottito ChatGPT di Terabyte di enciclopedie serie, a cui danno la priorità nel valore dell’informazione. Per cui, se chiedete a ChatGPT informazioni su “Pierluigi Adami”, un piccolo autore di qualche libro minore, cercherà di raccogliere quel che ha trovato su web, tirando fuori anche cose inesatte. Mentre se cercate Alessandro Manzoni risponderà in modo appropriato, traendo il dato dal suo sapere enciclopedico.

Almeno sui temi importanti, la possibilità che l’IA diffonda fake-news e falsità sembra scongiurata. Per prova, ho chiesto a ChatGPT se le scie chimiche fossero vere. Mi ha risposto: “No, non credo che le scie chimiche siano vere. Non ci sono prove scientifiche che supportino l’esistenza di scie chimiche. Alcune persone sostengono che le scie chimiche siano una forma di geoingegneria, ma non ci sono prove concrete che supportino questa teoria.” Una risposta corretta e sobria, nello stile di ChatGPT (“non credo che…”).

Tuttavia ci sono perplessità sulla privacy delle persone. Potendo accedere a miliardi di dati sul web, raccoglie qualsiasi informazione che trova – giuste o sbagliate che siano – e le può diffondere su richiesta.

Altra preoccupazione riguarda le immagini e i video. Questi sistemi sono in grado di produrre immagini e video sintetici, manipolando immagini reali, in modo artificioso ma simili a quelle reali e potenzialmente indistinguibili. L’uso fraudolento di sistemi di IA può dunque generare falsi clamorosi. Si rischia che non riusciremo più a distinguere il vero dal falso.

Un aspetto inquietante è che gli scienziati hanno creato sistemi in grado di auto-apprendere e dunque di evolvere, ma non siamo del tutto in grado di prevedere questa evoluzione. Tempo fa era circolata la notizia che Facebook avesse deciso di interrompere un esperimento di IA perché, secondo alcune ipotesi, le macchine avessero iniziato a dialogare tra loro in un linguaggio per noi non più comprensibile.

Non so se ciò è davvero accaduto, ma il rischio che questi sistemi possano evolvere in modo non facilmente prevedibile c’è. Attenzione: non incontrollabile, bensì imprevedibile. Essendo macchine, l’uomo sarà sempre in grado di controllarle e – al limite – di spegnerle o di cancellare il codice più rischioso.

Si rischiano posti di lavoro con l’intelligenza artificiale?  

Sì, questo è il problema principale. E non mi si venga a dire che è la stessa cosa dell’invenzione delle macchine nella Rivoluzione industriale, che ha fatto sì perdere molti posti di lavoro manuale, ma ne ha creati tanti altri per costruire e gestire le macchine stesse.

Qui siamo di fronte a una serie di sistemi così potenti e robot intelligenti che sono già e saranno sempre di più in grado di svolgere molte mansioni oggi svolte dall’uomo. Non solo manuali, anche – e soprattutto – intellettuali. Non stiamo parlando di robot tagliaerba, dunque.

Qualcuno sostiene: l’IA creerà tanti posti di lavoro perché serviranno programmatori software e manutentori di questi sistemi intelligenti e dei robot. Ne siamo proprio sicuri? Abbiamo creato sistemi così evoluti che, in prospettiva, saranno in grado di programmare e correggere da soli gli errori. Serviranno tanti sviluppatori software? Sicuri sicuri? Se si chiede già oggi a ChatGPT di produrre un software in linguaggio Python (ad esempio) secondo precise specifiche, il sistema lo produrrà in pochi istanti, perfettamente funzionante. Oh certo, serviranno molti sistemisti che dovranno fornire al sistema IA le specifiche, ma poi si programmerà da solo.

L’IBM ha già annunciato tagli di posti di lavoro – anche di sviluppatori software – laddove quel lavoro viene già svolto da sistemi IA.

Scrittori, autori, sceneggiatori, giornalisti, avvocati devono stare attenti. Ovunque il lavoro richieda l’elaborazione di un testo, i sistemi IA possono svolgerlo con sempre più efficacia. In un primo tempo, potranno essere di supporto ai professionisti umani, ma il rischio che diventino così bravi da sostituirli in molte attività c’è. Già oggi molte rassegne stampa le fanno le macchine, mica i giornalisti.

E gli attori? I film da domani saranno realizzati più in laboratorio che sul set cinematografico. E avremo attori sintetici. Potremo rivedere Marylin Monroe recitare in un nuovo film, ma quanti attori umani perderanno il lavoro? Oh, certo, i grandi interpreti resteranno umani, ma tutti gli altri? Attori minori e comparse spariranno, sostituiti da avatar. Discorso simile vale per i musicisti. Non ci vuole molto, tra l’altro, per addestrare un sistema IA a comporre canzoni in qualsiasi stile. Nel 1982 avevo comprato un libro di un informatico russo che già enunciava i modelli statistici per far comporre musica a un calcolatore e come addestrarlo. Anche in questo caso, in una prima fase gli algoritmi saranno di supporto ai musicisti professionisti, ma poi? Non è da escludere che tra qualche anno vedremo a Sanremo l’esibizione di robot che canteranno le loro canzoni… Fantascienza? No, è una possibile applicazione dell’IA.

Persino la politica e la pubblica amministrazione saranno interessati dalla rivoluzione IA. Molti politici useranno l’IA per influenzare la comunicazione al pubblico in modo sempre più efficiente. Ma in un futuro – speriamo lontano – a che servirà avere tanti esperti economisti, parlamentari e amministratori se una legge di bilancio la potrà fare con molta più efficacia un sistema intelligente? Basterà dargli i criteri di base, le scelte politiche di fondo et voilà l’intelligenza artificiale potrà generare un’intera legge di bilancio con tanto di articolato. Non solo. Perché pagare caro i giudici della Corte dei Conti quando un sistema IA da solo potrà analizzare conti e bilanci delle amministrazioni e verificare chi non rispetta le norme di bilancio? I sistemi IA non chiedono ferie né lauti compensi o ricche pensioni.

In una prospettiva un po’ più lontana – e questo è l’aspetto forse più inquietante – l’umanità potrà persino decidere di farsi governare dalle macchine, perché più brave ed efficienti di qualsiasi politico umano. E c’è di più: già si stanno progettando sistemi di realtà “aumentata” e interfacce uomo-macchina che prevedono una integrazione fisica di dispositivi elettronici all’interno del corpo umano. Questo vuol dire, ad esempio, che tra non molti anni il nostro campo visivo sarà arricchito da informazioni che verranno proiettate sulla retina o direttamente nel cervello per “arricchire” la nostra visione con informazioni inviate dai servizi a cui siamo abbonati. Ovvero da sistemi IA che decideranno che cosa vedremo dentro i nostri occhi non più biologici ma bionici.

Quanto sopra riguarda attività umane di tipo intellettuale a rischio di essere coperte da sistemi IA. Figuriamoci i lavori manuali, che saranno sempre di più realizzati da robot.

Il rischio è che tra qualche anno avremo miliardi di persone che non avranno alcuna mansione da svolgere.

Ci sono anche lati positivi…

Ma non ci saranno solo cose negative. Pensate a un bravo neurochirurgo alle prese con una risonanza magnetica di un paziente con un rarissimo tumore cerebrale. Per quanto bravo, forse sbaglierà la diagnosi o l’operazione, non essendo un caso di routine per lui. Con il supporto dell’IA non ha queste difficoltà. I sistemi intelligenti di supporto alla medicina possono inglobare milioni di referti, cartelle cliniche, esiti operatori di tutto il mondo, supportando il medico umano anche nei casi più rari e gravi.

Conclusioni

Ci dobbiamo dunque preoccupare dello sviluppo dell’intelligenza artificiale? Sì. È qualcosa che in pochi anni cambierà radicalmente tutto, anche nelle nostre vite. Sarà una vera rivoluzione e come ogni rivoluzione non sarà incruenta. Avrà i suoi lati positivi, ma anche impatti negativi e tanti aspetti inquietanti, che dovranno essere gestiti con molta cautela. Proprio la cautela che oggi manca in un sistema competitivo che sta accelerando uno sviluppo forsennato di questi sistemi il cui esito non è del tutto prevedibile. Ma è inutile pensare di poter tornare indietro. La macchina è partita e non si fermerà. Speriamo che l’umanità sia in grado di gestire quel che lei stessa è in grado di creare.