Physical Address

304 North Cardinal St.
Dorchester Center, MA 02124

Oprah, Sam Altman e Bill Gates – gli highlights della puntata speciale sull AI

Giovedì sera tardi, Oprah Winfrey ha trasmesso uno speciale sull’IA, intitolato appropriatamente “AI and the Future of Us” (“L’IA e il nostro futuro”). Tra gli ospiti c’erano il CEO di OpenAI, Sam Altman, l’influencer tecnologico Marques Brownlee e l’attuale direttore dell’FBI, Christopher Wray.

Il tono predominante è stato di scetticismo e cautela.

Oprah ha osservato nelle sue dichiarazioni preparate che il “genio dell’IA” è ormai fuori dalla bottiglia, nel bene e nel male, e che l’umanità dovrà imparare a convivere con le conseguenze.

“L’IA è ancora fuori dal nostro controllo e, in gran parte, oltre la nostra comprensione,” ha detto. “Ma è qui, e vivremo con una tecnologia che può essere nostra alleata così come nostra rivale. … Siamo le creature più adattabili di questo pianeta. Ci adatteremo ancora. Ma tenete gli occhi su ciò che è reale. La posta in gioco non potrebbe essere più alta.”

Sam Altman promette troppo

Altman, il primo intervistato della serata da Oprah, ha fatto l’affermazione discutibile secondo cui l’IA di oggi sta imparando concetti dai dati su cui viene addestrata.

“Mostriamo al sistema mille parole in sequenza e gli chiediamo di prevedere cosa viene dopo,” ha detto Altman a Oprah. “Il sistema impara a prevedere e, in quel processo, impara i concetti sottostanti.”

Molti esperti non sarebbero d’accordo.

I sistemi di IA come ChatGPT e o1, che OpenAI ha introdotto giovedì, predicono effettivamente le parole più probabili in una frase. Ma sono semplicemente macchine statistiche: apprendono schemi dai dati. Non hanno intenzionalità; fanno solo ipotesi informate.

Mentre Altman ha probabilmente sopravvalutato le capacità dei sistemi di IA odierni, ha sottolineato l’importanza di capire come testare in sicurezza questi stessi sistemi.

“Una delle prime cose che dobbiamo fare — e questo sta già accadendo — è fare in modo che il governo inizi a capire come fare i test di sicurezza su questi sistemi, come facciamo per gli aerei o i nuovi medicinali,” ha detto. “Personalmente, probabilmente parlo con qualcuno nel governo ogni pochi giorni.”

L’insistenza di Altman per la regolamentazione potrebbe avere interessi personali. OpenAI ha espresso opposizione alla legge californiana sulla sicurezza dell’IA, nota come SB 1047, affermando che potrebbe “soffocare l’innovazione”. Ex dipendenti di OpenAI ed esperti di IA come Geoffrey Hinton, tuttavia, hanno espresso supporto alla legge, sostenendo che imporrebbe le necessarie garanzie sullo sviluppo dell’IA.

Oprah ha anche incalzato Altman sul suo ruolo di leader di OpenAI. Gli ha chiesto perché le persone dovrebbero fidarsi di lui, ma Altman ha evitato in gran parte la domanda, dicendo che la sua azienda sta cercando di costruire fiducia nel tempo.

In precedenza, Altman aveva detto molto chiaramente che le persone non dovrebbero fidarsi di lui o di nessun’altra persona per assicurarsi che l’IA benefici il mondo.

Successivamente, il CEO di OpenAI ha affermato che gli sembrava strano sentire Oprah chiedergli se fosse “l’uomo più potente e pericoloso del mondo,” come suggerito da un titolo di giornale. Ha negato, ma ha detto di sentire la responsabilità di orientare l’IA in una direzione positiva per l’umanità.

Oprah sui deepfake

Come era inevitabile in uno speciale sull’IA, si è parlato di deepfake.

Per dimostrare quanto stia diventando convincente il media sintetico, Brownlee ha confrontato riprese campione di Sora, il generatore di video alimentato da IA di OpenAI, con filmati generati da un sistema di IA di qualche mese fa. Il campione di Sora era notevolmente migliore, illustrando i rapidi progressi del settore.

“Adesso puoi ancora guardare alcuni dettagli di questo e capire che qualcosa non è del tutto giusto,” ha detto Brownlee riferendosi al filmato di Sora. Oprah ha detto che sembrava reale a lei.

La dimostrazione dei deepfake ha fatto da ponte a un’intervista con Wray, che ha raccontato il momento in cui si è reso conto per la prima volta della tecnologia dei deepfake.

“Ero in una sala conferenze e alcuni membri dell’FBI si sono riuniti per mostrarmi come si possono creare deepfake potenziati dall’IA,” ha detto Wray. “E avevano creato un video di me in cui dicevo cose che non avevo mai detto e che non direi mai.”

Wray ha parlato dell’aumento dell’estorsione sessuale facilitata dall’IA. Secondo la società di sicurezza informatica ESET, c’è stato un aumento del 178% dei casi di estorsione sessuale tra il 2022 e il 2023, in parte dovuto alla tecnologia IA.

“Qualcuno che si spaccia per un coetaneo prende di mira un adolescente,” ha detto Wray, “poi usa immagini compromettenti [generate dall’IA] per convincere il ragazzo a inviare foto reali in cambio. In realtà, è un tipo dietro una tastiera in Nigeria, e una volta che hanno le immagini, minacciano di ricattare il ragazzo e dicono: se non paghi, condivideremo queste immagini che rovineranno la tua vita.”

Wray ha anche parlato della disinformazione in vista delle prossime elezioni presidenziali negli Stati Uniti. Pur affermando che “non è il momento di farsi prendere dal panico,” ha sottolineato che è responsabilità di “tutti in America” portare un “senso di attenzione e cautela” all’uso dell’IA e tenere a mente che l’IA “può essere usata dai cattivi contro tutti noi.”

“Troppo spesso, scopriamo che qualcosa sui social media che sembra provenire da Bill di Topeka o Mary di Dayton è in realtà, sai, un ufficiale dell’intelligence russo o cinese nei dintorni di Pechino o Mosca,” ha detto Wray.

Infatti, un sondaggio di Statista ha rilevato che più di un terzo degli intervistati statunitensi ha visto informazioni fuorvianti — o ciò che sospettavano fosse disinformazione — su argomenti chiave verso la fine del 2023. Quest’anno, immagini generate dall’IA e fuorvianti di candidati come la vicepresidente Kamala Harris e l’ex presidente Donald Trump hanno ottenuto milioni di visualizzazioni sui social network, inclusa X.

Bill Gates sulla disgregazione causata dall’IA

Per un cambiamento di ritmo più ottimistico, Oprah ha intervistato il fondatore di Microsoft Bill Gates, che ha espresso la speranza che l’IA potenzi i campi dell’istruzione e della medicina.

“L’IA è come una terza persona seduta in [una visita medica], che fa una trascrizione e suggerisce una prescrizione,” ha detto Gates. “E così, invece di avere il medico di fronte a uno schermo del computer, questi interagisce con te, e il software si assicura che ci sia una trascrizione accurata.”

Gates ha però ignorato il potenziale di pregiudizio dovuto a un addestramento IA scadente.

Un recente studio ha dimostrato che i sistemi di riconoscimento vocale delle principali aziende tecnologiche hanno il doppio delle probabilità di trascrivere erroneamente l’audio dei parlanti neri rispetto a quelli bianchi. Altre ricerche hanno mostrato che i sistemi di IA rafforzano credenze antiche e false secondo cui ci sono differenze biologiche tra neri e bianchi, credenze che portano i clinici a diagnosticare erroneamente problemi di salute.

In classe, Gates ha detto, l’IA può essere “sempre disponibile” e “capire come motivarti … qualunque sia il tuo livello di conoscenza.”

Non è esattamente come molti istituti vedono la cosa.

La scorsa estate, scuole e college si sono affrettati a vietare ChatGPT per timori di plagio e disinformazione. Da allora, alcuni hanno revocato i divieti. Ma non tutti sono convinti del potenziale benefico dell’IA generativa, citando sondaggi come quello del U.K. Safer Internet Centre, che ha rilevato che più della metà dei bambini ha visto i propri coetanei usare l’IA generativa in modo negativo — per esempio creando informazioni false credibili o immagini usate per ferire qualcuno.

Alla fine dello scorso anno, l’UNESCO (Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura) ha spinto i governi a regolamentare l’uso dell’IA generativa nell’istruzione, compresa l’implementazione di limiti di età per gli utenti e barriere di protezione per la privacy dei dati e degli utenti.