Intelligenza artificiale: 3 casi che sconvolgono la percezione della verità

Intelligenza artificiale: 3 casi che sconvolgono la percezione della verità

La generazione di immagini false attraverso l’intelligenza artificiale è ormai alla portata di tutti, con enormi effetti sulla nostra capacità di distinguere il vero dal falso. Ora, però, la sola ipotesi che una foto possa essere stata costruita ad arte con le AI cambia radicalmente tutte le carte in tavola.

Di Simone Ciferri

30 Mar - 9 min lettura

Ieri più di 1000 persone hanno lanciato un allarme.

Una lettera aperta, pubblicata su Future of Life Institute, il cui obiettivo era semplice: chiedere una pausa di almeno 6 mesi nell’addestramento dei sistemi d’intelligenza artificiale più avanzati, perché le cose potrebbero presto sfuggirci di mano.

 

A sottoscriverla ci sono Elon Musk, il co-fondatore di Apple Steve Wozniak, quelli di Pinterest, di Skype e persino delle start up di intelligenza artificiale Stability AI e Charatcters.ai.

 

“I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili.”

 

In effetti, solo negli ultimi giorni incredibili deepfake fabbricati con l’intelligenza artificiale hanno generato curiosi effetti in tutto il mondo. 

Fotografie clamorosamente false (ma straordinariamente realistiche) create attraverso un semplice software: sono questi i contenuti più ingaggianti sul web nell’ultima settimana, che hanno suscitato stupore, curiosità e, spesso, anche ilarità. In tanti – ben prima del patron di Tesla – si sono allarmati, domandandosi come sarà possibile difendersi dalle fake news ora che la fabbricazione delle immagini a loro supporto è diventata così accessibile, con risultati quasi impeccabili. 

 

Fino a poco fa, infatti, creare realistici deepfake significava possedere particolari abilità tecniche. Oggi, invece, le immagini false si possono produrre in uno schiocco di dita, con risultati estremamente credibili. Una semplicità d’uso disarmante, quella delle nuove AI, che porta inevitabilmente con sé innumerevoli dubbi sugli impieghi futuri di tecnologie così potenti che ci costringeranno a mettere in dubbio la natura della realtà.

 

Da un lato, infatti, sarà sempre più difficile distinguere il reale dal falso, con conseguenze sulla credibilità di notizie più o meno sensibili. Dall’altro, invece, la sola possibilità che una foto possa esser stata generata da un’intelligenza artificiale può screditare notizie che, fino a qualche giorno fa, avrebbero potuto incidere profondamente sulla storia.

Oggi ti raccontiamo 3 casi molto diversi fra loro, accomunati dall’utilizzo – vero o presunto – dell’intelligenza artificiale, per riflettere su come cambierà il mondo da diversi punti di vista.

 

 

Che cos’è Midjourney, in breve

 

Il software utilizzato per generare immagini a partire da un semplice testo si chiama Midjourney. Da qualche giorno è stata rilasciata la sua quinta versione, ancora più potente e avanzata. 

Adesso le immagini sono davvero iper realistiche, perché prive di quei difetti che le rendevano distinguibili da fotografie di eventi realmente avvenuti e di cui si poteva avere una concreta testimonianza.

Da quando è stato lanciato online, il software è sempre stato in grado di “costruire” immagini di ogni genere in pochi minuti, ma questa evoluzione ha lasciato perplesso più di un utente del web. Ora basterebbe fornire un semplice input al software, come per esempio “Papa con piumino bianco fotorealistico”, per ricevere in cambio una foto in alta qualità che non lascia spazio a interpretazioni.

In effetti, è accaduto proprio questo durante il weekend.

 

 

INTELLIGENZA ARTIFICIALE: 3 CASI

L’outfit trap di papa Francesco

 

È diventata virale la foto di papa Francesco avvolto in un candido piumino in perfetto stile Balenciaga. D’altronde, si tratta di un immagine che si presta perfettamente a meme, commenti e condivisioni social. I brand erano già pronti a mettere in moto la produzione di questo nuovo modello oversize che tanto aveva scaldato gli animi dei fashion addicted. Eppure, tutti sono dovuti correre ai ripari in men che non si dica, perché la foto è un falso. E nella cabina armadio di Bergoglio non vi è traccia di alcun piumino bianco swag.

 

Su Business Insider, Henry Ajder ha commentato la vicenda, spiegando come riconoscere un fake da una foto originale. L’esperto di intelligenza artificiale e membro del Consiglio consultivo europeo per i Reality Labs di Meta ha affermato che esistono piccoli elementi che possono aiutarci, come la mano deformata del pontefice o l’ombra irregolare degli occhiali.

“Una delle cose che sta diventando notevole con l’implementazione di una nuova versione di Midjourney è che molte di queste immagini hanno un aspetto plastico iperrealistico molto distintivo che sembra un filtro. Questi fattori potrebbero cambiare man mano che la piattaforma verrà implementata.”

 

 

INTELLIGENZA ARTIFICIALE: 3 CASI

L’arresto di Donald Trump

 

Una settimana prima, un’altra immagine aveva già fatto ampio scalpore in tutto il mondo.

Ad essere precisi, si tratta di un set di foto create dal fondatore della piattaforma di giornalismo investigativo Bellingcat che ritraggono l’ex presidente USA Donald Trump braccato da agenti di polizia, pronti ad ammanettarlo. Le fotografie sono state rese pubbliche proprio in concomitanza delle dichiarazioni di Trump sul suo possibile arresto per il caso Stormy Daniels. Per questo motivo, il set di immagini che ritrae un evento mai realmente accaduto ha suscitato un enorme clamore mediatico, generando migliaia di condivisioni.

L’intento dichiarato era quello di testare le potenzialità del software e comprendere come e quanto ci si potesse spingere con l’immaginazione. I risultati parlano chiaro: tanto.

E Midjourney si è trovata costretta a sanzionare il fondatore di Bellingcat per la creazione di queste immagini.

 

 

INTELLIGENZA ARTIFICIALE: 3 CASI

AI e la guerra in Ucraina

 

Due giorni fa Bellingcat è tornato protagonista di una vicenda che vede di nuovo le intelligenze artificiali al centro di un caso di cui invece si discute molto poco. 

Se le foto palesemente false di Bergoglio e Trump sono state messe sotto i riflettori del web generando un’enorme viralità, il terzo caso di cui vogliamo parlare non fa notizia, perché uguale e contrario ai primi due.

Ne ha parlato Cecilia Sala nel suo podcast “Stories”, ragionando su come le intelligenze artificiali possano confondere tutti anche durante la guerra. 

“C’è un caso davanti alla Corte europea dei diritti dell’Uomo che riguarda l’Ucraina e la Russia. Non la guerra cominciata il 24 febbraio 2022, ma quella in Donbass, cominciata prima, nel 2014. 

È un caso sulla presenza russa già da allora, sul fatto che non fosse una guerra civile, ed è un fatto molto interessante e per certi versi di avanguardia, perché si basa soprattutto su prove raccolte online da fonti aperte.

Gli avvocati che rappresentano l’Ucraina dicono: “ecco le foto recuperate sui social network che provano che questo ragazzo è un soldato russo”.

Gli avvocati che rappresentano la Russia replicano: “no, questa è roba manipolata utilizzando l’intelligenza artificiale, è un fake, è propaganda.”

“In questi giorni in cui la rete è piena di finte immagini dell’arresto di Trump fabbricate con l’intelligenza artificiale, come di papa Bergoglio con un favoloso piumino bianco lucido che non ha mai indossato, o ancora di Bergoglio dietro la consolle in discoteca, si parla parecchio di questa questione: a che cosa crederemo ora che l’intelligenza artificiale è ovunque?

 

Per sapere che Trump non è stato arrestato basta aprire un giornale, per sapere che Bergoglio non mette dischi basta vivere su questo pianeta. Ma ci sono molte storie che conosciamo poco con cui non abbiamo confidenza, su cui non esistono o non esistono ancora conferme ufficiali, e che appartengono a una tipologia di eventi per definizione più oscura. 

Su queste, l’ipotesi che ci sia dietro l’intelligenza artificiale può mandarci in confusione, con conseguenze pericolose.”