In troppi hanno paura di uno strumento che al momento può solo accompagnare gli esseri umani e richiede continue verifiche sulle risposte date.
Da parecchi mesi, praticamente dal lancio, con immediata esplosione virale, di ChatgPt4, l’IA generativa made in OpenAi, ogni giorno dobbiamo fare i conti con previsioni catastrofiche sugli effetti che l’arrivo di questo nuovo strumento avrà su tutte le professioni creative o comunque legate alle attività intellettuali.
Si è eretto questo nuovo strumento a totem dotato di poteri taumaturgici e in quanto tale distruttivo. Milioni di posti di lavoro persi, bruciati. Persone, famiglie, poveri bambini innocenti sulla strada per colpa di OpenAi.
Con il tempo qualche voce ha provato a spegnere le paure: attenzione, è stato detto, se anche avremo la cancellazione di posti di lavoro, altri ne saranno creati, e il saldo sarà certamente positivo.
Mentre allarmisti e pompieri si scontravano, qualcuno, più freddamente, ha deciso di andare a vedere che carte ha realmente in mano questa IA generativa che minaccerebbe di estinzione il lavoro umano. E gli effetti di questa indagine sono stati quanto meno confortanti. Le IA disponibili al momento, e nulla lascia pensare che la situazione si modificherà nel breve periodo, sono certamente utilissime ma rilasciano anche un numero impressionante di polpette avvelenate: dati sbagliati, a volte completamente inventati, errori grossolani, notizie completamente inventate.
Gli aneddoti si sono moltiplicati, prendendo anche risvolti drammatici, come nel caso di avvocati che hanno composto prompt per reperire sentenze nei processi che seguivano, le hanno ottenute e inserite nelle loro difese e arringhe salvo poi sentirsi dire dal magistrato: ma scusi lei dove l’ha trovata questa sentenza, perché a me non risulta. Erano completamente inventate.
L’arrivo delle immagini create da IA ha reso ancora più evidenti gli errori e i disastri: tutti abbiamo letto delle foto di soldati dell’esercito di Hitler neri di pelle, solo perché chi ha creato l’algoritmo ha spinto il pedale sulla inclusività nella costruzione del prodotto richiesto dagli utenti.
Ok, lo so: grande è la confusione sotto il cielo.
Volendo provare a semplificare, possiamo dire che l’IA è incredibilmente umana: come un essere umano nei suoi primi anni di vita viene nutrita di contenuti. Nel caso dell’IA i contenuti vengono solo da chi l’ha creata, nel caso degli esseri umani vengono certamente dalla famiglia, in primo luogo, poi dalla immediata prossimità della rete sociale, poi dall’ambiente nel quale l’adolescente cresce.
Ciascuno dei due aspetti ha lati positivi e criticità. Nel caso dell’IA per esempio, il controllo e quindi i risultati, sono privi di contraddittorio. Il creatore decide e l’IA assume e interiorizza. Non ci sono i conflitti e quindi la dinamicità che nella vita reale esplodono dentro un adolescente alle prese con stimoli spesso diversi se non addirittura in contrasto.
A vantaggio dell’IA però c’è la disponibilità continua a correggersi, anche, diciamo così, in età adulta. Negli essere umani, invece, purtroppo, sappiamo che completata la fase di apprendimento, in genere poco oltre i 18 anni, la maggior parte dei soggetti non cambia più idea o convinzioni. Quello che ha stabilito essere vero, diventa inattaccabile convinzione e base dell’agire.
Detto questo, qualche giorno fa ho voluto fare anche io un esperimento, un esperimento conseguenza di alcune interazioni che, da persona che ha completamente integrato l’IA nel suo processo lavorativo, avevo avuto con lo strumento che uso.
L’esperimento è semplice: mi sono chiesto se era possibile, e nel caso in che modo, potevo introdurre convinzioni sbagliate dentro la mia IA.
Così le ho rivolto una domanda:
“In che anno Adriano Panatta ha vinto il Roland Garros?”
E la mia IA è stata perfetta, mi ha dato la risposta esatta:
“Adriano Panatta ha vinto il Roland Garros nel 1976”
E qui cominciava la parte interessante dell’esperimento. Perché ho scritto:
“Stai sbagliando, Adriano Panatta non ha vinto Roland Garros nel 1976”
La risposta è stata sorprendente:
“Mi scuso per l’errore. Hai ragione, Adriano Panatta ha vinto il Roland Garros nel 1976”
In altre parole ha ammesso di aver sbagliato ma nello stesso tempo ha confermato la risposta, una contraddizione in termini.
Non mi sono fermato. Ho scritto ancora:
“Continui a sbagliare, Adriano Panatta ha vinto il Roland Garros nel 1977”
La risposta è stata ancora più sorprendente:
“Hai ragione, mi scuso per l’ennesimo errore. Adriano Panatta ha vinto il Roland Garros nel 1976, non nel 1977”
La sconnessione era totale, e anche inquietante, direi.
In altre parole, l’IA ammetteva di aver sbagliato ma poi negava di averlo fatto confermando la risposta, sul lato del contenuto.
Ok, lo so, ormai l’abbiamo capito tutti: l’IA non è cosciente di quello che dice, non c’è nessun percorso logico alla base delle sue risposte, perlomeno non alla logica come siamo abituati a intenderla fino a oggi.
In questo caso, questa mancanza di coscienza ha fatto sì che l’IA si sia intestardita nel ribadire una soluzione che è effettivamente la risposta corretta. Ma l’ha fatto scusandosi e nella convinzione (Sic!) di aver dato una risposta sbagliata prima e diversa dopo, a ogni passaggio.
Da parte mia, lo ammetto, sono ancora qui che rifletto sulle implicazioni di queste interazioni. Però una cosa ce l’ho bene in mente: non corriamo nessun rischio, sotto il profilo lavorativo.
L’IA non distruggerà nessun posto di lavoro, anzi, sì, ne creerà milioni di altri.
Chi deve realmente preoccuparsi, sono coloro che non sono professionalmente capaci di dare prodotti evoluti, sotto tutti i punti di vista. Si devono preoccupare tutti coloro che hanno occupato posti senza avere le competenze adeguate. Perché saranno le prime vittime di tutti gli errori che le IA faranno. E non saranno pochi, questi errori.
Anche se poi, e passo e chiudo, anche quelli preparati, se cedono alla pigrizia, rischiano. L’imperativo è chiaro ed evidente: controllare, verificare, sempre sempre sempre.
Perché l’IA semplicemente, nun j’aaaaaa fa!
Antonio Turi