Il drammatico ritardo nell’integrazione politica sovranazionale europea emerge quando si fa un raffronto sulle capacità di sviluppo di queste tecnologie in Europa rispetto a quanto sta accadendo nel resto del mondo
Il lavoro del Parlamento europeo per regolamentare questo importante settore.


L’impatto dell’intelligenza artificiale sulla nostra quotidianità è sempre più significativo ed è stato inevitabile che le prospettive e le problematiche ad essa collegata entrassero prepotentemente nel dibattito pubblico con uno spazio crescente nell’informazione, per imporsi ormai come una questione ineludibile non solo per la qualità della nostra vita, ma addirittura per il futuro dell’umanità. In questo contesto si inserisce il lavoro che stiamo portando avanti presso le istituzioni dell’Unione europea con l’ambizioso obiettivo di arrivare ad approvare il regolamento che stabilisce regole armonizzate sull’intelligenza artificiale entro la fine della nostra legislatura: sarebbe un risultato storico, il primo intervento normativo al mondo a stabilire in modo organico una regolazione di questa materia così importante. Ma servirà anche un sovrappiù di impegno per una sovranità condivisa di stampo federale se si vorranno davvero guidare questi processi; ci tornerò in conclusione.

Per svolgere il nostro compito in modo adeguato è stato fondamentale porsi le domande in modo corretto e passare da una dimensione teorica dai tratti affascinanti – basti pensare a tutte le questioni legate all’etica dell’intelligenza artificiale – a un piano di azione concreta. Come si concilia, dunque, la migliore tutela per i cittadini con la necessità di non rallentare il progresso tecnologico? Quanto possono essere puntuali e incisive delle regole che intervengono in un ambito che cambia tanto velocemente? Come possiamo individuare un valido equilibrio tra diritti che fatalmente vengono posti in contrasto? Quali sono i limiti invalicabili per un sistema da un punto di vista giuridico? E da un punto di vista etico?

Ecco allora come un preciso inquadramento della questione e la giusta comprensione di ciò che è opportuno che venga normato diventano il punto di partenza ineludibile per capire le difficoltà delle sfide inedite di fronte alle quali ci troviamo, essendo i primi chiamati a elaborare una cornice complessiva, che istituisca un adeguato sistema di governance che operi tra diversi livelli (UE e Stati membri), definisca perimetro e contenuto di nuove tutele per i cittadini, imponga obblighi e stabilisca divieti per fornitori e utenti, gestisca i rischi dell’intelligenza artificiale, promuova lo sviluppo dell’innovazione senza sacrificare i nostri valori.

Lo scorso 14 giugno il Parlamento europeo ha cercato di tenere conto di tutti questi elementi e la votazione ha rappresentato un passo decisivo verso l’adozione di regole comuni anche perché si è raggiunta una larghissima maggioranza (499 voti a favore, 28 contrari e 93 astenuti), che ha confermato il medesimo testo approvato dalle Commissioni congiunte Mercato interno (IMCO) e Libertà civili (LIBE): il mandato negoziale da portare al trilogo con il Consiglio e la Commissione europea appare particolarmente “solido” e queste deliberazioni testimoniano che si sta portando avanti un percorso inclusivo per chiudere un regolamento il più condiviso possibile. Al tempo stesso posso assicurare che i negoziati sono stati molto impegnativi per almeno due motivazioni: la difficoltà di circoscrivere le misure da adottare e l’emersione di un ampio spettro di opinioni sulle varie tematiche, che tagliava trasversalmente le aggregazioni politiche, arricchendo ma pure complicando il lavoro. Ho già accennato a una terza ragione di complessità, data dalla velocità con cui evolve l’intelligenza artificiale, come dimostrato, ad esempio, anche dalla vicenda di GPT-4 e simili modelli particolarmente potenti, giunti agli onori delle prime pagine di cronaca nazionale. Come mai tutta questa attenzione?

Nel caso del nuovo GPT, lo sviluppatore Open AI non ha rilasciato dati ufficiali sul numero di parametri di apprendimento utilizzati dal modello neurale, ma si parla di una cifra impressionante, pare compresa tra 1.000 e 10.000 miliardi: davvero impressionante, se si pensa che solo 4 anni fa, nel 2019, veniva rilasciato il GPT-2 con “solo” 1,5 miliardi di parametri. A partire da parole o immagini fornite dall’utente, GPT-4 è, dunque, in grado di generare testi coerenti e argomentati pressoché su qualsiasi argomento, rispondendo a domande, creando presentazioni etc. Qualche mese fa il grande scrittore Emmanuel Carrère raccontò di aver provato per curiosità il programma, chiedendo la redazione di un articolo sullo scioglimento dei ghiacciai, scritto perfino nel suo stile: il risultato fu più che buono, al netto di qualche imperfezione.

E dunque il Parlamento europeo è dovuto necessariamente intervenire per modificare la prima bozza di regolamento avanzata nel 2021 dalla Commissione europea per estenderne l’ambito di applicazione e prevedere un regime specifico per i cosiddetti “modelli fondazionali” e l’intelligenza artificiale generativa.

Per tali modelli i produttori devono identificare i possibili rischi prevedibili per la salute, la sicurezza, i diritti fondamentali, l'ambiente, la democrazia e lo Stato di diritto, con l’obbligo di sviluppare adeguate misure di mitigazione e di portare avanti una progettazione, che contenga l'uso di energia e riduca sprechi di risorse, considerato il massiccio utilizzo di dati.

È dunque cresciuta l’urgenza di normare anche i modelli fondazionali, ma cosa accadrà esattamente dopo che il testo sarà chiuso e avremo approvato il regolamento in via definitiva?

Chi “guiderà” la prima delicatissima fase di applicazione delle regole, dove potrebbero emergere distinzioni, interpretazioni e innovazioni? Per rispondere a queste problematiche abbiamo cercato di definire un sistema di governance, in grado di risolvere le controversie e indirizzare un periodo, che si prevede ancora pieno di incertezze.

Nella proposta del Parlamento europeo, ora oggetto di negoziato in trilogo con il Consiglio, viene istituito un Ufficio europeo per l’intelligenza artificiale, dotato di personalità giuridica e indipendente dalla Commissione europea a cui fornisce pareri sull’attuazione del regolamento e sullo sviluppo dell’AI, rafforzando l’originaria proposta di un più blando coordinamento.

Gli Stati membri dovranno designare una Autorità nazionale di vigilanza con lo stesso requisito di indipendenza e con risorse adeguate: il Consiglio di gestione dell’Ufficio AI è composto da rappresentanti delle Autorità nazionali, dalla Commissione, dal Garante europeo per la privacy, dall’Agenzia europea per la sicurezza cibernetica e dall’Agenzia europea per i diritti fondamentali. Al fine di allargare il coinvolgimento a stakeholder, società civile e attori economici è stato ideato anche un Forum con funzioni consultive.

Su cosa si sono concentrate allora le maggiori divisioni? Certamente sulla regolazione della sorveglianza biometrica in tempo reale sulla quale i Popolari hanno chiesto una votazione separata, ma sia in plenaria, sia presso le Commissioni sono state messe in minoranza le posizioni ultrasecuritarie.

In un periodo di trasformazioni del capitalismo e della democrazia è stato dimostrato che assai spesso gli eccessi si sono verificati nell’uso di dati biometrici: abbiamo allora stabilito che questi sistemi si possano utilizzare esclusivamente ex post e solo con una autorizzazione dalla magistratura per indagini su un «reato grave» per cui è necessario analizzare registrazioni video con riconoscimento facciale.

Un’ultima questione fondamentale su cui c’è stata una discreta polarizzazione ha riguardato, infine, la graduazione degli obblighi e delle responsabilità sulla base del diverso livello di rischio per i sistemi di intelligenza artificiale di incorrere in una lesione di diritti. Per essere classificati nella categoria “ad alto rischio”, e dunque essere sottoposti a un sistema di certificazione più impegnativo su governance dei dati, controllo umano e molto altro, essi devono porre adesso anche un «rischio significativo» di danno alla salute, alla sicurezza e ai diritti fondamentali per cui si dovranno valutare aspetti come la gravità, l’intensità, la probabilità del danno e la durata degli effetti, e non la mera appartenenza a una categoria di rischio “potenziale”.

Come progressisti abbiamo anche ottenuto l’inserimento in alcuni ambiti del rischio di danno all’ambiente e abbiamo esteso l’applicazione delle norme sulla mitigazione dei rischi ai sistemi di intelligenza artificiale relativi alla fornitura di servizi essenziali, dedicati alla gestione della migrazione e delle frontiere oppure volti a influenzare gli elettori nelle campagne politiche e a raccomandare contenuti attraverso le maggiori piattaforme di social network.

Questo lavoro mi porta inevitabilmente a conclusioni necessarie per un federalista europeo: l’ambizione del regolamento è quella di guidare un dibattito a livello globale ma il drammatico ritardo nell’integrazione politica sovranazionale europea emerge prepotentemente anche quando si fa un banale raffronto sulle capacità di sviluppo di queste tecnologie in Europa rispetto a quanto sta accadendo nel resto del mondo a partire da Cina e Stati Uniti, per capitali mobilitati, infrastrutture messe in funzione e progetti di ricerca di larga scala.

Insomma, la Federazione europea è una urgenza realistica e un’ambizione necessaria anche per quel che riguarda la competitività nello sviluppo dell’intelligenza artificiale, volendo mettere al centro i diritti fondamentali e la democrazia.

 

  

L'Unità Europea

Giornale del

MovimentoFederalista Europeo

Edizione a stampa
Codice internazionale: ISSN 1825-5299
Catalogazione e disponibilità: Catalogo ACNP

 

Edizione online
Codice internazionale: ISSN 2723-9322
Sito Internet: www.unitaeuropea.it

L'Unità Europea su Facebook

Iscriviti alla alla newsletter

 

Sito internet: www.mfe.it

Pagina Facebook del MFE L'MFE su Twitter L'MFE su YouTube