16 - 22 Settembre, Roma

“Gli esseri umani saranno sempre superiori all’IA, perché il libero arbitrio non è un algoritmo”

In anteprima per Rome Future Week®, pubblichiamo un estratto del libro “Intelligenza Artificiale: come usarla a favore dell’umanità”, scritto dal giornalista Gabriele Di Matteo e dall’esperto di IA Eugenio Zuccarelli. Il libro è edito da Mondadori e uscirà in libreria a marzo. Buona lettura!

Tra le domande più pressanti, quando si parla di intelligenza artificiale, è quella che riguarda la capacità di questi modelli di essere senzienti, di avere una coscienza. Uno dei pensatori che ha dedicato ben due libri a questo tema è il fisico di origini italiane Federico Faggin, l’inventore del microchip e del touchscreen. Faggin ha scritto i libri “Silicio. Dall’invenzione del microprocessore alla nuova scienza della consapevolezza” e “Irriducibile. La coscienza, la vita. i computer e la nostra natura”, entrambi editi da Mondadori, per dimostrare che le macchine non avranno mai una coscienza.

Federico Faggin, che abita con la sua famiglia in California, è tornato in Italia, a Firenze, ma solo virtualmente, collegato in video dalla California per raccontare la sua visione dell’intelligenza artificiale, guest star dell’evento BTO, che si tiene alla stazione Leopolda.

“Nella mia terza vita, tra il 1986 e il 1988, studiavo le reti neurali che cominciavano a essere interessanti. Chi la sapeva più lunga di me sull’IA diceva che non avrebbero mai funzionato. Be’, per la verità, noi le abbiamo fatte funzionare e la storia poi ci ha dato ragione. Per reti neurali si intendono quelle tecnologie che hanno permesso di risolvere problemi difficili dell’IA, vedi il riconoscimento del volto, della scrittura manuale, tutte cose che hanno una grandissima variazione e che hanno bisogno di regole che noi ignoriamo e che si possono attingere dai dati, da una serie infinita di esempi che permettono a questi sistemi di imparare da soli. O meglio, questi modelli imparano perché siamo noi a dire che cosa stanno osservando. Ed è così che trovano le correlazioni tra i nomi che noi assegniamo a questi dati e i dati stessi.

Questo permette alle reti neurali di avere un comportamento che sembra intelligente. Ma la parola ‘intelligente’, nel caso dell’IA, è abusata perché noi abbiamo degli aspetti umani che ci distinguono dalle macchine. Per questo, quando si dice che l’IA Generale (AGI) potrà superare gli umani si dice qualcosa di molto sbagliato, ma contemporaneamente si afferma anche una cosa giusta. È vero che i modelli di IA possono fare meglio di noi una serie di cose meccaniche che sono riproducibili, mentre noi umani abbiamo una creatività e una capacità di capire che l’intelligenza artificiale non ha e non avrà mai”.

Faggin prosegue poi: “Le macchine non avranno mai una coscienza e una consapevolezza, a differenza di quello che qualcuno vuole farci credere. Io sono giunto a questa conclusione quando studiavo le reti neurali, perché mi sono chiesto come può un computer essere cosciente sapendo che coscienza e libero arbitrio sono le differenze fondamentali che ci distinguono dalle macchine. E sono arrivato a capire che coscienza e libero arbitrio sono fenomeni spiegabili solo con la fisica quantistica, quella dei piccolissimi oggetti, dei campi quantistici, in cui le particelle non sono nemmeno oggetti ma stati dei campi. Eppure, ci sono molti scienziati che sostengono che un pc possa avere libero arbitrio.

La mia visione del mondo è che l’IA imita quello che facciamo noi solo nell’aspetto simbolico della realtà. Mentre l’aspetto semantico, il significato della vita, della nostra esperienza, è un fenomeno interiore che possiamo spiegare solo con la fisica quantistica, con l’informazione quantistica. In sostanza, noi siamo assolutamente superiori alle macchine ma, se crediamo di essere simili a loro e non comprendiamo la differenza profonda che corre tra noi e loro, finiremo per esserne schiavizzati”.

Intelligenza Artificiale: bellissima se usata per il bene comune

Faggin raccomanda, comunque, di usare questi modelli di IA che abbiamo la fortuna di avere a disposizione perché “le macchine hanno accesso a molti più dati rispetto a noi, e sono capaci di una velocità e abilità di calcolo molto superiori a quella del nostro cervello. Quindi possono trovare correlazioni tra i dati molto più in fretta rispetto a noi umani. L’IA è uno strumento bellissimo se usato per il bene comune, ma potrebbe diventare pericolosissimo se usato per manipolare le persone. In fin dei conti, è sempre l’uomo che deve restare al centro della scena senza permettere a chi vuole usarci al solo fine di monetizzare i nostri profili”.

Faggin mette però sotto accusa l’aspetto normativo: “Purtroppo mancano le leggi per regolamentare l’IA e in questo vuoto creato dalla mancanza di guide etiche stabilite alla base dei modelli di IA (norme che dovrebbero essere applicate per direttissima in modo da eliminare sul nascere i problemi) noi ci troviamo in balia di aziende il cui fine è aumentare i profitti. E per aumentarli devono farci cliccare più in fretta, devono proporci contenuti che possono diventare come droghe. Dobbiamo stare molto attenti a questi fenomeni di dipendenza che sono già in atto. Mi rivolgo soprattutto ai giovani che sono ancora nella fase di apprendimento delle cose. I giovani sono attratti da queste tecnologie che andrebbero usate solo per il bene comune, ma prestandosi a degli abusi, questi modelli possono portarci problemi molto gravi. Siamo come sempre di fronte a un’arma a doppio taglio”.

Faggin è battagliero contro i fisici e i neuroscienziati che provano a collocare coscienza e libero arbitrio tra gli epifenomeni, o fatti puramente accessori.

In Irriducibile, il suo ultimo libro che abbiamo citato in paertura, si legge: “La maggior parte dei fisici sostiene che coscienza e libero arbitrio non abbiano bisogno di essere spiegati come fenomeni fondamentali poiché sono degli epifenomeni del cervello, ossia degli aspetti secondari a cui i neuroscienziati dovrebbero trovare una spiegazione mediante qualche meccanismo biologico. Ma come può essere secondario ciò che fa la differenza nel decidere se siamo macchine o meno?

Il cervello decide e informa la coscienza della sua decisione, dopodiché crediamo di aver deciso noi quando in realtà è stato il cervello. La scelta, secondo la scienza, appartiene alle reti neurali del cervello. Questo è vero, ma solo se crediamo di essere come le macchine, se noi prestiamo attenzione soltanto ai simboli e non connettiamo con quello che abbiamo dentro di noi. La nostra coscienza è una proprietà della nostra interiorità. E questa interiorità esiste solo come relazione che usiamo con i simboli per comunicare.

Nella fisica quantistica l’informazione quantistica non è riproducibile esattamente come non lo è la nostra esperienza interiore. Anche volendo io non posso trasferirla direttamente, devo usare simboli condivisibili per trasferirla. Questa differenza fondamentale ci mostra come il computer non potrà mai essere cosciente. Perché sia cosciente deve avere delle informazioni che non sono copiabili, invece i bit del computer sono copiabili. Poi si incontra sempre qualcuno che ci racconta che il pc è già cosciente e presto lo sarà ancora più di noi”.

Le nostre coscienze non somigliano agli algoritmi

“Io uso il traduttore di Google, un’ottima cosa che fa risparmiare tempo, una delle importanti applicazioni dell’Intelligenza Artificiale. Posso tradurre dall’inglese all’italiano, e viceversa, ma devo conoscere ambedue le lingue, devo saperla più lunga dell’IA. Solo così posso correggere gli errori che il sistema introdurrà nel testo tradotto. Devo essere io a fare la revisione, e posso farlo solo se conosco sia l’italiano che l’inglese.

Usando il traduttore di Google la mia produttività è 5 a 1, mi fa risparmiare l’80% del tempo per dedicarmi ad altre cose. Ma se io mi fido ciecamente dell’IA, non conoscendo la materia di cui si parla, rischio di dire cose sbagliate oppure l’opposto di quello che vorrei dire”.

Faggin, che nei suoi interventi e nei suoi libri ha sempre negato che le macchine possano essere senzienti e avere una coscienza propria, raccomanda la massima prudenza a chi vuole utilizzare questi modelli di LLM (Large Language Model): “La facoltà di capire, la comprensione, non è una proprietà di una macchina, la coscienza non appartiene alle macchine, non è un fenomeno algoritmico, è ciò che ci distingue dalle macchine. Esattamente come il libero arbitrio non si può ridurre a un algoritmo.

Se invece di usarlo con buonsenso, ci affidiamo a lui come fosse un oracolo, abbiamo un problema gravissimo. Siamo purtroppo sovrastati da una pubblicità esagerata, qualcuno promette di cambiare il mondo con questi modelli e gli utenti sono del tutto confusi, anche perché i dettagli di come funziona, di quello che può fare o non può fare, e fino a dove può arrivare non sono mai discussi”.

Chi sono gli autori del libro “Intelligenza Artificiale: come usarla a favore dell’umanità”?

Eugenio Zuccarelli è un esperto di Intelligenza Artificiale e Data Science formatosi al MIT e all’Imperial College London. Ha lavorato per aziende Fortune 500 in settori che spaziano dalla sanità alla finanza, focalizzandosi sullo sviluppo di tecnologie che migliorano la condizione umana. Le analisi di Eugenio hanno contribuito a sviluppare raccomandazioni politiche per alcune delle più importanti organizzazioni a livello globale in situazioni chiave come la lotta contro la pandemia di COVID-19. È un collaboratore regolare di diverse testate giornalistiche tra cui HBR, Forbes, Fortune, MIT Technology Review, Wired e Il Corriere della Sera, nonché autore di paper accademici, relatore principale in varie conferenze (TechCrunch, The AI Summit, TEDx, etc.) e ha tenuto lezioni in università come Harvard e Bocconi. Eugenio ha ricevuto oltre 15 onorificenze e premi, tra cui Forbes Under 30 e Fortune Under 40.

Gabriele Di Matteo ha fatto il giornalista per tutta la vita, iniziando dalla carta stampata (“Il Giornale” di Montanelli, “La Repubblica”) per poi passare alla tv come autore e anchorman (Tg3, Rainews24, Sky; poi al Web, con “Forbes”). Un preciso filo conduttore ha ispirato le sue attività: raccontare il rapporto tra le persone e le nuove tecnologie create da imprenditori che sfidano il passato e provano a cambiare il mondo. Per Hoepli ha scritto Dialogo tra una lavatrice e un tostapane, libro dedicato al mercato dell’Internet of Things (IoT) e ha viaggiato intorno al mondo per seguire eventi dedicati all’innovazione. È speaker in eventi dedicati alla Digital Revolution organizzati da aziende, università, e associazioni. Nella sua prima vita è stato, inaspettatamente, poeta, pubblicando varie raccolte di versi tra cui “Iceberg” che ha vinto il Premio Cave. Di solito, passa l’inverno in Thailandia dove tutti si scambiano dei bellissimi sorrisi.

Luca Francescangeli

Leggi altro...