16 - 22 Settembre, Roma

IA e Governance, una sfida che deciderà il nostro futuro

Pochi giorni fa è stata messa la ciliegina sulla torta di un 2023 denso di novità sul tema dello sviluppo dell’IA e, contestualmente, del percorso per arrivare a una governance europea equilibrata. Fra la necessità di sfruttare in pieno le potenzialità dello strumento e quella di dettare le linee del percorso in termini di diritti e valori, i rappresentanti del Parlamento e del Consiglio hanno trovato l’accordo politico sulla proposta di regolamentazione espressa dalla Commissione nell’Aprile del 2021.

Questo accordo, consente un ulteriore passo in avanti verso l’adozione di una regolamentazione europea dell’IA, ma è anche importante sottolineare che la soddisfazione espressa da troppi è quanto meno prematura, visto che:

1) non si conosce ancora il testo che verrà prodotto in base all’accordo;

2) prima dell’approvazione definitiva ci sono ancora numerosi passaggi che potrebbero anche stravolgere il senso della regolamentazione (l’accordo necessita dell’approvazione di Parlamento e Consiglio,  approvazione prevista per il 9 febbraio) poi questo accordo deve essere trasformato in legge, (passaggio che dovrebbe avvenire entro luglio);

3) criticità nell’accordo ce ne sono, e molte sono state già evidenziate da più attori.

Certo, che le intenzioni siano di arrivare a una reale governance dell’IA in Europa, lo dimostra il fatto che si sia scelta la strada della Regolamentazione (che impone ai paesi membri di recepire interamente le norme e in tempi definiti e brevi) invece che della Direttiva (che, e lo vediamo con la direttiva Bolkestein, lascia spazio per infiniti rimandi e stravolgimenti).

Il fulcro dell’accordo, che diventerà, salvo sorprese, la base dell’architettura del regolamento, è la divisione dei sistemi di IA in 4 grandi categorie, a seconda del rischio che comportano per i diritti considerati fondamentali e per la sicurezza pubblica: rischio minimo, elevato e inaccettabile; più una quarta categoria, dove inserire sistemi di IA che presentano rischi elevati di trasparenza.

Il compito di inserire i sistemi di IA in una delle categorie, spetterà alla Commissione, mentre è prevista la creazione di una autority, per verificare l’operato di chi lavora in questo specifico settore e la corrispondenza dei sistemi alle regole approvate.

Insomma, la macchina sembrerebbe definitivamente in moto, e anche indirizzata in modo chiaro.

La realtà, come detto, è molto diversa.

Ad analizzare le dichiarazioni di molti degli attori e sapendo andare oltre le parole spesso formali, si capisce che al momento ad essere contenti sono in pochi.

Non lo sono i governi, che vedono nello sviluppo dell’IA un volano di crescita per il proprio paese, perché trovano il regolamento troppo stringente e capace di bloccare il potenziale innovativo dell’IA (Macron è uno dei presidenti che più si è sbilanciato, in senso critico); non lo sono i rappresentanti delle associazioni che difendono i diritti, perché vedono (giustamente, ci permettiamo di aggiungere) ancora troppe ambiguità nelle definizioni utilizzate; non lo sono le aziende che producono sistemi di IAG, perché trovano troppi freni in un settore che, a loro modo di vedere, dovrebbe essere lasciato libero, almeno in questo momento, di galoppare in libertà.

Nelle prossime settimane vedremo come saranno utilizzati alcuni dei punti centrali dell’accordo del 9 dicembre.

Perché è chiaro, affermare che il riconoscimento biometrico sarà vietato ma aggiungere che ci sono tre eccezioni (terrorismo, ricerca persone scomparse e crimini gravi) significa aprire porte dalle quali possono scatenarsi tempeste capaci di travolgerli i diritti, al posto di salvaguardarli (Il concetto di crimine grave e di terrorismo varia da stato a stato in maniera geometrica). Stessa cosa per la polizia predittiva e il social scoring, vietati ma con tante eccezioni.

Secondo indiscrezioni, un altro tema poco chiaro, è se alcune procedure saranno vietate sia al pubblico che al privato o solo in uno dei due ambiti (e non è difficile immaginare in quale dei due, nel caso).

Le organizzazioni per i diritti, stanno da tempo seguendo l’iter e il dibattito sulla regolamentazione, e fanno sapere che non mancheranno le occasioni di verifica e sono già pronte a dare battaglia.

Da parte nostra riteniamo che con l’IA non si deve fare l’errore fatto con il Web 2.0, cioè di una totale deregulation, cosa che ha comportato gli effetti deleteri oggi sotto gli occhi di tutti.

Quindi, va benissimo sfruttare le potenzialità dello strumento IA, ma questo sfruttamento deve avvenire sapendo bene cosa vogliamo essere, cosa vogliamo diventare, come esseri umani e come società civile.

Tutti temi particolarmente caldi, oggi, perché è proprio sulla visione del futuro in termini di diritti e organizzazione sociale che in Europa, sia come continente che come sistema politico, non abbiamo per niente le idee chiare, stretti fra politiche dirigiste e altre di completa deregulation.

In attesa, le cose andranno avanti, veloci, ma non troppo. Con il rischio concreto che quando la regolamentazione diventerà obbligatoria, cioè fra non meno di due anni, considerando la velocità con cui si evolve l’IA, ci ritroveremo in mano un arnese (L’IA Act) già vecchio e superato.

Antonio Turi

Leggi altro...