banner

Blog

Aug 07, 2023

L’intelligenza artificiale non spazzerà via l’umanità (ancora)

Michael Calore Lauren Goode

L’idea che un giorno l’intelligenza artificiale conquisterà il mondo è stata a lungo un punto fermo della fantascienza. Ma visti i rapidi progressi negli strumenti di intelligenza artificiale a livello di consumatore, negli ultimi mesi la paura è sembrata più vicina alla realtà di quanto non lo fosse mai stata prima. La mania dell’intelligenza artificiale generativa ha suscitato entusiasmo e apprensione in egual misura, lasciando molte persone a disagio su dove sta andando il futuro di questa tecnologia chiaramente potente ma ancora nascente. Questa settimana, ad esempio, il gruppo no-profit Center for AI Safety ha rilasciato una breve dichiarazione in cui avverte che la società dovrebbe prendere sul serio l’intelligenza artificiale come minaccia esistenziale, così come facciamo con la guerra nucleare e le pandemie.

Questa settimana su Gadget Lab, parliamo con lo scrittore senior di WIRED Will Knight di quanto sia davvero pericolosa l'intelligenza artificiale e di quali barriere possiamo erigere per prevenire l'apocalisse dei robot.

Leggi la storia di Will sugli esperti preoccupati che l'intelligenza artificiale rappresenti una minaccia esistenziale per l'umanità. Leggi tutta la copertura di WIRED sull'intelligenza artificiale.

Will consiglia il romanzo Antimatter Blues di Edward Ashton. Mike consiglia di conservare il cibo con Bee's Wrap invece che con prodotti in plastica monouso. Lauren consiglia il podcast Succession della HBO, condotto da Kara Swisher.

Will Knight può essere trovato su Twitter @willknight. Lauren Goode è @LaurenGoode. Michael Calore è @snackfight. Bling la hotline principale su @GadgetLab. Lo spettacolo è prodotto da Boone Ashworth (@booneashworth). La nostra colonna sonora è dei Solar Keys.

Puoi sempre ascoltare il podcast di questa settimana tramite il lettore audio in questa pagina, ma se vuoi iscriverti gratuitamente per ricevere ogni episodio, ecco come fare:

Se utilizzi un iPhone o iPad, apri l'app chiamata Podcast o tocca semplicemente questo collegamento. Puoi anche scaricare un'app come Overcast o Pocket Casts e cercare Gadget Lab. Se utilizzi Android, puoi trovarci nell'app Google Podcasts semplicemente toccando qui. Siamo anche su Spotify. E nel caso ne avessi davvero bisogno, ecco il feed RSS.

Lauren Goode: Mike.

Michael Calore: Lauren.

Lauren Goode: Stavo pensando che oggi dovremmo parlare della nostra estinzione.

Lauren Goode

Lauren Goode

Giuliano Chokkattu

Personale CABLATO

Michael Calore: Intendi come giornalisti, podcaster o come esseri umani?

Lauren Goode: Forse entrambi.

Michael Calore: Grande.

Lauren Goode : Sì. Sì. È un altro podcast sull'intelligenza artificiale, ma penso che le persone vorranno davvero ascoltarlo.

Michael Calore: Quindi posso chiederti quando daremo alla gente qualcosa da ascoltare che sia davvero promettente?

Lauren Goode: Beh, in realtà penso che anche quello faccia parte dello show.

Michael Calore: Ok fantastico.

Lauren Goode: Allora veniamo al dunque.

[Il tema musicale introduttivo di Gadget Lab viene riprodotto]

Lauren Goode : Ciao a tutti. Benvenuti nel Laboratorio Gadget. Sono Lauren Goode. Sono uno scrittore senior presso WIRED.

Michael Calore : E io sono Michael Calore. Sono un redattore senior di WIRED.

Lauren Goode : E oggi il nostro collega scrittore, Will Knight, si unisce a noi da Cambridge, Massachusetts. Will, è fantastico riaverti al Gadget Lab.

Will Cavaliere : Ciao. È fantastico essere tornato.

Lauren Goode : Uno di questi giorni, Will, ti contatteremo e ti diremo semplicemente: "Vorresti parlare di gadget per gatti o qualcosa del genere?" Ma per ora sei esattamente nel regno della copertura dell’intelligenza artificiale. E' di questo che ti stiamo invitando a parlare. Sì, stiamo parlando ancora una volta di intelligenza artificiale, ma questa volta si tratta della dichiarazione di un gruppo di tecnologi che mette in guardia da una minaccia esistenziale per l'umanità. È stata l'affermazione in una sola frase che è stata ascoltata nel mondo della tecnologia all'inizio di questa settimana. “Mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare”. Il documento è arrivato dal Center for AI Safety, che è un’organizzazione no-profit, ed è stato firmato da figure di spicco nello sviluppo dell’IA. Ora, questa ovviamente non è la prima volta che veniamo messi in guardia sui pericoli dell'intelligenza artificiale. Alcuni dei nostri ascoltatori potrebbero ricordare la pausa che centinaia di tecnologi e ricercatori di alto livello chiedevano già a marzo, e finora non si è realmente tradotta in una pausa. Ma tutti questi avvertimenti apocalittici ci hanno portato a chiederci: cosa dovremmo credere riguardo al potenziale danno dell’intelligenza artificiale e chi tra questi ricercatori e tecnologi sta offrendo l’opinione più affidabile in questo momento? Will, volevamo coinvolgerti per parlare di questo. Per prima cosa, torna indietro un po'. Raccontaci qualcosa di questa dichiarazione del Center for AI Safety. Cosa ha spinto questo?

CONDIVIDERE