Con l’AI Act l’Europa disegnerà le prospettive dell’intelligenza artificiale
Via libera alla prima regolamentazione al mondo sull’intelligenza artificiale. Il mondo, nel frattempo, si divide fra chi vede nell’AI Act un provvedimento storico e chi uno storico scivolone tecnico. Di quest’ultimo gruppo fanno parte 150 grandi aziende europee.

Il Parlamento Europeo ha dato il via libera alla prima bozza dell’AI Act, vero e proprio capostipite mondiale per la regolamentazione delle intelligenze artificiali.
Attraverso l’Artificial Intelligence Act, l’Europa vuole istituire un quadro giuridico uniforme che regoli lo sviluppo, la commercializzazione e l’utilizzo delle intelligenze artificiali. Alla base ci sono, naturalmente, i valori dell’Unione Europea e i diritti fondamentali su cui essa si fonda.
L’entusiasmo è alto. D’altronde, con questo voto, il vecchio continente si posiziona come pioniere della regolamentazione tecnologica globale. Per fare un esempio, infatti, il Congresso degli Stati Uniti è ancora in alto mare su questo fronte.
We’re making history!
Proud that @Europarl_EN has just approved the world’s first Artificial Intelligence Act.
A balanced and human-centred legislation which will set the global standard for years to come.
Europe will continue leading in innovation 🇪🇺 https://t.co/UXXZOU3Nel
— Roberta Metsola (@EP_President) June 14, 2023
Se da un lato, però, l’Europa si propone come apripista alla regolamentazione responsabile delle AI, dall’altro ben 150 dirigenti di grandi aziende europee vedono l’AI Act come una minaccia alla competitività e alla sovranità tecnologica europea.
Sulla legislazione finale non è ancora detta l’ultima parola, in quanto l’approvazione definitiva è prevista per fine anno.
Lo scontro è aperto.
Ma andiamo per ordine.
Cos’è l’AI Act?
L’AI Act rappresenta una proposta di legge che stabilisce i vari gradi di pericolo connessi all’effetto dei diversi sistemi di intelligenza artificiale. Al centro vi è un focus sull’impatto che questi nuovi modelli avranno sulla vita delle persone e sui loro diritti fondamentali, quali il lavoro, la salute e la sicurezza.
La normativa suddivide le applicazioni dell’IA in quattro categorie di rischio: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo o nullo. Saranno, dunque, applicate diverse regole in base ai diversi livelli di pericolo, al fine di produrre una regolamentazione flessibile secondo un sistema definito risk-based approach.
I sistemi di AI a rischio inaccettabile saranno vietati. Essi includono:
• La manipolazione cognitivo-comportamentale delle persone o di specifici gruppi vulnerabili
• Il punteggio sociale e la classificazione delle persone in base al comportamento, allo status socio-economico o alle caratteristiche personali
• I sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale
Le intelligenze artificiali che influiscono negativamente sulla sicurezza o sui diritti fondamentali, invece, saranno considerate a rischio elevato. Esse saranno valutate accuratamente prima di essere immesse sul mercato (e anche durante il loro intero ciclo di vita) al fine di garantirne la totale sicurezza. Per fare qualche esempio, fra queste rientreranno le tecnologie che si occuperanno di:
• Gestione e operazione di infrastrutture critiche
• Istruzione e formazione professionale
• Impiego, gestione dei lavoratori e accesso all’autoimpiego
• Applicazione della legge
• Gestione delle migrazioni, asilo e controllo delle frontiere
2/12
The Act proposes a risk-based approach to regulate AI systems, meaning that the regulatory requirements will vary based on the potential risks associated with the AI tech. pic.twitter.com/vJFynYwRrT
— Degen Law Academy (@DegenLawAcademy) May 10, 2023
Inoltre, l’AI Act si propone di regolare anche le intelligenze artificiali generative. Queste ultime, come ChatGPT, Midjourney e Bard, dovranno rispettare nuovi requisiti di trasparenza rivelando che i contenuti sono generati artificialmente, progettando modelli che impediscano la creazione di contenuti illegali e tutelando il copyright.
Tutto bello, su carta, finché non ci si scontra con la realtà. E a infiammare gli animi è stata proprio la regolamentazione delle IA generative.
Potrebbe interessarti anche: Intelligenza artificiale: 3 casi che sconvolgono la percezione della verità
In 150 contro l’AI Act
Venerdì scorso un nutrito gruppo di imprenditori, dirigenti e ricercatori europei ha firmato una lettera aperta per mettere in guardia i legislatori. Sono più di 150 le personalità influenti che ritengono l’AI Act un pericolo per la competitività europea e la sua sovranità tecnologica.
Fra gli oppositori vi sono i dirigenti di Renault, Heineken, TomTom, Airbus e Siemens.
With more than 150 european researchers, entrepreneurs, CEO… I am today signing an open letter to warn against the risks for our continent of the latest developments of the EU AI Act draft proposalhttps://t.co/FBZAliKkAs?
— Cédric O (@cedric_o) June 30, 2023
Nel mirino ci sono in particolar modo le nuove regole relative alle intelligenze artificiali generative. Secondo i firmatari, infatti, le aziende che producono LLM (Large Language Model) incorrerebbero in costi di conformità e rischi di responsabilità troppo elevati a causa dell’entrata in vigore dell’AI Act. I fornitori di modelli di intelligenze artificiali, infatti, dovrebbero registrare la loro tecnologia e sottoporla a una valutazione del rischio. Inoltre, essi dovrebbero divulgarne i dati utilizzati per allenare i propri modelli.
In parole povere, secondo i firmatari, si tratterebbe di un incentivo a fare le valigie e spostarsi verso in paesi con leggi meno stringenti. Questo provocherebbe un enorme intralcio alla sovranità tecnologica del vecchio continente, oltre ad aumentare il divario esistente con gli USA.
Potrebbe interessarti anche: I rischi dell’intelligenza artificiale, spiegati da chi l’ha creata
La vera grande criticità, a detta dei 150, è costituita proprio dal risk-based approach.
Il motivo? Si conosce ancora troppo poco sui potenziali rischi associati direttamente all’utilizzo delle intelligenze artificiali. La soluzione proposta sarebbe quella di istituire un organismo di esperti che valuti i rischi al ritmo dello sviluppo della tecnologia stessa.
Finora, però, la lettera non sembra aver riscosso grande successo fra le istituzioni europee. Al contrario, uno dei parlamentari coinvolti nello sviluppo della legge, Dragoș Tudorache, ha affermato che “è un peccato che la lobby aggressiva di pochi trascini altre aziende” in quanto l’AI Act consiste in un “un regime normativo leggero che chiede trasparenza. Nient’altro”.
Il conflitto, a quanto pare, è appena iniziato.