L’Europarlamento approva l’AI Act

Con il varo dell’AI Act l’indirizzo normativo dell’Unione è al momento basato sulla valutazione ed il contenimento del rischio, in particolare riguardo all’esposizione della privacy della popolazione. Niente riconoscimento biometrico. In materia l’Italia dentro il Libro Bianco della Commissione, gli USA alle prese con aziende che vedono troppe restrizioni; il Regno Unito chiede regole meno severe, la Cina rinnova i valori socialisti, la Francia punta a primo Hub europeo

Il 15 giugno scorso il Parlamento Europeo ha dato il via libera all’AI Act, il Regolamento sull’Intelligenza Artificiale che, dopo il completamento dell’iter con i fondamentali passaggi formali del Consiglio e della Commissione, dovrebbe entrare in vigore entro il 2024.

Con l’approvazione del Regolamento in Parlamento, l’indirizzo normativo dell’Unione è al momento basato sulla valutazione ed il contenimento del rischio, in particolare riguardo all’esposizione della privacy della popolazione. Niente riconoscimento biometrico, niente classificazione delle persone in base al loro comportamento sociale o alle loro caratteristiche personali. Pochissime le eccezioni.

L’AI Act, dunque, come argine contro l’abuso di tali sistemi, con l’eccezione dei gravi crimini, quando il ricorso all’innovazione tecnologica, quale supporto dell’attività d’indagine e giudiziaria pare rimanere lo strumento più efficace.   

Vedremo in seguito se e quali migliorie potranno nascere dall’iter normativo del primo Atto europeo in materia di Intelligenza Artificiale, pensando anche a chi, come le persone in transito in Europa, non è attualmente incluso nelle categorie protette dall’uso dei sistemi di riconoscimento facciale (migranti, profughi o richiedenti asilo).

Un gap da colmare o un esempio verso cui andare? Le cautele sono giustamente caratterizzanti nell’operato degli europarlamentari, ma rischiano di essere vane senza allineamenti e decisioni multilaterali a livello internazionale in grado di dare vita ad un’efficace governance mondiale in materia di AI.

L’IA tra il Regolamento UE ed il primo vertice globale

Vediamo, intanto, come si muovono i maggiori competitori internazionali, ricordando che per quanto concerne il nostro Paese la strategia del ministero dello sviluppo economico è ancorata al Libro Bianco della Commissione Europea. Il “credo” dell’impegno italiano per il confronto con gli altri Paesi è nei termini utilizzati dalla Commissione Europea secondo cui “la tecnologia AI cambierà la nostra vita in positivo, ma per fare ciò è necessario che venga regolamentata in modo da presidiare ed azzerare i rischi che inevitabilmente porta con sé”. L’Italia parte da un approccio che non può prescindere dalla regolamentazione dell’Intelligenza Artificiale e che pone al centro l’individuo e la sua tutela.

Gli USA chiamano a raccolta i quattro grandi players nazionali

L’Amministrazione Biden, negli USA, ha chiamato a raccolta, lo scorso 4 maggio, i quattro grandi players impegnati nello sviluppo dell’Intelligenza Artificiale, Anthropic, Alphabet, Microsoft ed Open Ai, e l’indirizzo strategico che è emerso, almeno nelle dichiarazioni pubbliche, è quello di sfruttare le opportunità di una delle tecnologie più potenti di questo tempo non prima però di averne mitigato i rischi.

Si parla di Carta dei diritti dell’intelligenza artificiale, di centro di ricerca nazionale, di 140 milioni di dollari per la realizzazione di sette nuovi istituti di ricerca, di una guida pubblica sull’uso dell’intelligenza artificiale da parte del governo federale.

Il Blueprint for an Ai bill of rights, una sorta di guida etica sulla base della quale si baserà la Carta dei diritti dell’intelligenza artificiale, propone una serie di principi di sviluppo ai quali dovranno attenersi i quattro grandi players e, in genere, tutti gli sviluppatori di IA negli USA. 

C’è dunque molta attenzione per controllare i rischi insiti nello sviluppo di questa tecnologia, ma tale quadro contrasta, ai fini del successo economico delle aziende americane, con una visione, di queste ultime, in molti casi eccessivamente restrittiva delle misure previste.

La Gran Bretagna chiede regole meno severe

Gli Stati Uniti confermano una buona collaborazione con il Regno  Unito e l’ultimo incontro tra il Primo Ministro britannico, Rishi Sunak, e il Presidente, Joe Biden, ha dato molto spazio allo sviluppo dell’IA. Nell’occasione, Sunak ha annunciato che il primo vertice globale sulla sicurezza dell’intelligenza artificiale si terrà nel Regno Unito nell’autunno 2023. A fare da collante a questa collaborazione regole meno severe in tema di sorveglianza e accesso ai dati personali degli utenti rispetto a quelle dell’Unione europea, tema dove evidentemente rispetto al proprio interno gli USA potrebbero cedere qualcosa.

Il Regno Unito, dal canto suo, terzo leader mondiale dopo USA e Cina, con 3,7 miliardi di fatturato annuo, propone regole più vantaggiose per la propria economia aprendo il proprio mercato alle aziende USA: Anthropic e OpenAi hanno aperto proprie a Londra e altre ne arriveranno, come annunciato dal colosso tecnologico USA, Palantir. OpenAi ha già nell’inglese Faculty un partner tecnico.

In Cina controllo dati e regole per i valori socialisti

In Cina la competitività in fatto di IA si basa in buona parte sulla raccolta ed il controllo dei dati, in considerazione di una popolazione che supera i 1,400 miliardi di persone. La privacy pare non rappresentare assolutamente un problema ed anzi sarebbe nulla già a partire dall’applicazione dell’IA nella didattica, a quanto parrebbe per monitorare l’attenzione ed il comportamento dei ragazzi e i loro margini di miglioramento.

Non solo, il controllo dei dati e dell’identità reale degli utenti per la Cina è basilare per rinnovare, anche in questo preannunciato futuro ipertecnologico, i valori socialisti. La Grande Muraglia tecnologica ha funzionato per internet e oltre 30 anni di sviluppo tecnologico e la Cina non intende cedere proprio ora che lo sviluppo dell’Intelligenza Artificiale gli ha aperto il secondo gradino del podio a livello mondiale.

Pronti a rispettare le regole e già in fermento sul mercato le versioni di IA generativa di Alibaba, Baidu e SenseTime, rispettivamente Tongyi Qianwen, Ernie Bot e SenseChat.

La Francia punta ad essere il primo Hub europeo

La Conferenza annuale sulla tecnologia, Viva Tech, fulcro francese delle analisi, del dibattito e dello stimolo, potremmo dire, per le decisioni governative e non solo, ha posto al centro quest’anno l’Intelligenza Artificiale (IA) ed i suoi sviluppi. Presente una foltissima platea, dalle aziende tradizionali alle smart up ed un’attenzione che attraversa ogni settore dell’economia e profilo della società transalpina, il Presidente Macron, assieme ai Ministri delle finanze e del digitale, rispettivamente Le Maire e Barrot, hanno sottolineato come la Francia sia già ad un buon livello di sviluppo dell’IA grazie all’attrazione di talenti e start up.

Per Emmanuel Macron il mercato USA sta al grande livello di sviluppo americano in tema di IA come quello dell’Unione Europea potrebbe stare alle strategie della Francia che, tuttavia, deve prima rincorrere e superare il Regno Unito. Cosa tutt’altro che impossibile per il Presidente francese. l’Hub europeo per l’Intelligenza Artificiale: questo l’obiettivo dichiarato della Francia, che aspira a competere ai più alti livelli internazionali rispetto a quella che Macron definisce come una tecnologia rivoluzionaria e di strategica importanza in tutto il mondo.

Forte della leadership nell’Europa continentale, seppure ancora dietro al Regno Unito nell’Unione, e con lo sguardo alle grandi potenze americana e cinese, proprio nel solco di Microsoft che investe in OpenAI, la Francia punta a creare due, tre player di statura globale. Per Macron, la regolamentazione non può essere confinata alla sola Europa continentale, ma va trattata attraverso la cooperazione internazionale.

Lascia un commento