Con l’AI Act l’Europa disegnerà le prospettive dell’intelligenza artificiale

Con l’AI Act l’Europa disegnerà le prospettive dell’intelligenza artificiale

Via libera alla prima regolamentazione al mondo sull’intelligenza artificiale. Il mondo, nel frattempo, si divide fra chi vede nell’AI Act un provvedimento storico e chi uno storico scivolone tecnico. Di quest’ultimo gruppo fanno parte 150 grandi aziende europee.

AI Act Europa

Di Simone Ciferri

6 Lug - 7 min lettura

Il Parlamento Europeo ha dato il via libera alla prima bozza dell’AI Act, vero e proprio capostipite mondiale per la regolamentazione delle intelligenze artificiali.

Attraverso l’Artificial Intelligence Act, l’Europa vuole istituire un quadro giuridico uniforme che regoli lo sviluppo, la commercializzazione e l’utilizzo delle intelligenze artificiali. Alla base ci sono, naturalmente, i valori dell’Unione Europea e i diritti fondamentali su cui essa si fonda. 

L’entusiasmo è alto. D’altronde, con questo voto, il vecchio continente si posiziona come pioniere della regolamentazione tecnologica globale. Per fare un esempio, infatti, il Congresso degli Stati Uniti è ancora in alto mare su questo fronte.

 

 

 

Se da un lato, però, l’Europa si propone come apripista alla regolamentazione responsabile delle AI, dall’altro ben 150 dirigenti di grandi aziende europee vedono l’AI Act come una minaccia alla competitività e alla sovranità tecnologica europea. 

Sulla legislazione finale non è ancora detta l’ultima parola, in quanto l’approvazione definitiva è prevista per fine anno.

Lo scontro è aperto.

Ma andiamo per ordine. 

 

Cos’è l’AI Act?

L’AI Act rappresenta una proposta di legge che stabilisce i vari gradi di pericolo connessi all’effetto dei diversi sistemi di intelligenza artificiale. Al centro vi è un focus sull’impatto che questi nuovi modelli avranno sulla vita delle persone e sui loro diritti fondamentali, quali il lavoro, la salute e la sicurezza.

La normativa suddivide le applicazioni dell’IA in quattro categorie di rischio: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo o nullo. Saranno, dunque, applicate diverse regole in base ai diversi livelli di pericolo, al fine di produrre una regolamentazione flessibile secondo un sistema definito risk-based approach.

I sistemi di AI a rischio inaccettabile saranno vietati. Essi includono:

• La manipolazione cognitivo-comportamentale delle persone o di specifici gruppi vulnerabili

• Il punteggio sociale e la classificazione delle persone in base al comportamento, allo status socio-economico o alle caratteristiche personali

• I sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale

 

Le intelligenze artificiali che influiscono negativamente sulla sicurezza o sui diritti fondamentali, invece, saranno considerate a rischio elevato. Esse saranno valutate accuratamente prima di essere immesse sul mercato (e anche durante il loro intero ciclo di vita) al fine di garantirne la totale sicurezza. Per fare qualche esempio, fra queste rientreranno le tecnologie che si occuperanno di:

• Gestione e operazione di infrastrutture critiche

Istruzione e formazione professionale

Impiego, gestione dei lavoratori e accesso all’autoimpiego

Applicazione della legge

Gestione delle migrazioni, asilo e controllo delle frontiere

 

 

 

 

Inoltre, l’AI Act si propone di regolare anche le intelligenze artificiali generative. Queste ultime, come ChatGPT, Midjourney e Bard, dovranno rispettare nuovi requisiti di trasparenza rivelando che i contenuti sono generati artificialmente, progettando modelli che impediscano la creazione di contenuti illegali e tutelando il copyright. 

Tutto bello, su carta, finché non ci si scontra con la realtà. E a infiammare gli animi è stata proprio la regolamentazione delle IA generative.

 

 

Potrebbe interessarti anche: Intelligenza artificiale: 3 casi che sconvolgono la percezione della verità  

 

 

In 150 contro l’AI Act

Venerdì scorso un nutrito gruppo di imprenditori, dirigenti e ricercatori europei ha firmato una lettera aperta per mettere in guardia i legislatori. Sono più di 150 le personalità influenti che ritengono l’AI Act un pericolo per la competitività europea e la sua sovranità tecnologica. 

Fra gli oppositori vi sono i dirigenti di Renault, Heineken, TomTom, Airbus e Siemens.

 

 

 

 

Nel mirino ci sono in particolar modo le nuove regole relative alle intelligenze artificiali generative. Secondo i firmatari, infatti, le aziende che producono LLM (Large Language Model) incorrerebbero in costi di conformità e rischi di responsabilità troppo elevati a causa dell’entrata in vigore dell’AI Act. I fornitori di modelli di intelligenze artificiali, infatti, dovrebbero registrare la loro tecnologia e sottoporla a una valutazione del rischio. Inoltre, essi dovrebbero divulgarne i dati utilizzati per allenare i propri modelli. 

In parole povere, secondo i firmatari, si tratterebbe di un incentivo a fare le valigie e spostarsi verso in paesi con leggi meno stringenti. Questo provocherebbe un enorme intralcio alla sovranità tecnologica del vecchio continente, oltre ad aumentare il divario esistente con gli USA.

 

 

Potrebbe interessarti anche: I rischi dell’intelligenza artificiale, spiegati da chi l’ha creata  

 

La vera grande criticità, a detta dei 150, è costituita proprio dal risk-based approach.

Il motivo? Si conosce ancora troppo poco sui potenziali rischi associati direttamente all’utilizzo delle intelligenze artificiali. La soluzione proposta sarebbe quella di istituire un organismo di esperti che valuti i rischi al ritmo dello sviluppo della tecnologia stessa.

Finora, però, la lettera non sembra aver riscosso grande successo fra le istituzioni europee. Al contrario, uno dei parlamentari coinvolti nello sviluppo della legge, Dragoș Tudorache, ha affermato che “è un peccato che la lobby aggressiva di pochi trascini altre aziende” in quanto l’AI Act consiste in un “un regime normativo leggero che chiede trasparenza. Nient’altro”.

Il conflitto, a quanto pare, è appena iniziato.