I progressi di DeepMind mostrano che l'intelligenza artificiale generale è più vicina che mai - Tebigeek

2022-05-29 13:11:25 By : Mr. Martin Lin

Questa è Geek Week, la mia newsletter su qualunque cosa nerd sia accaduta alla mia attenzione negli ultimi sette giorni. Eccomi qui, che rifletto su qualcosa che non comprendo del tutto nel tentativo di farmi un’idea: immagino che sarà così la maggior parte delle edizioni. Se desideri riceverlo direttamente nella tua casella di posta, ogni singola settimana, puoi registrarti qui.

Una cosa che mi interessa davvero è l’intelligenza artificiale generale (AGI). Le IA al momento sono “strette”. Possono essere sorprendentemente bravi, migliori dei migliori umani, in un compito o una serie di compiti specifici – Lo stoccafisso è estremamente sovrumano nel giocare a scacchi; AlphaFold è estremamente sovrumano nel predire la forma 3D delle proteine, ma sono limitate a quel dominio. Quindi AlphaFold non può, ad esempio, pagare le tasse per te. Palma può capire le battutema non posso aiutarti a spostarti da Birmingham a Oxford.

UN generale l’intelligenza è quella che può fare molte cose. Gli esseri umani sono un esempio di intelligenza generale, in quanto possiamo giocare a scacchi, navigare a Oxford, pagare le tasse, capire battute e molte altre cose. Alcune moderne IA stanno ottenendo di più generale – AlphaZero, un’IA creata dall’affiliata di Google DeepMind, è enormemente sovrumana negli scacchi, e Andare, e vari altri giochi. Ma sono ancora molto stretti.

Un veramente generale L’IA, che potrebbe svolgere tutti i compiti intellettuali che un essere umano può svolgere, sarebbe trasformativa. Se sarebbe trasformativo in senso positivo (risolvere il cambiamento climatico e la povertà, questo genere di cose) o in un modo cattivo (uccidere tutti e trasformarci in graffette) è una domanda a cui passo molto tempo cercando di rispondere nel mio primo libro .

Così. L’argomento è nella mia mente perché DeepMind ha rilasciato i risultati della sua nuova IA, chiamata Gato, questa settimana. E una persona (uno scrittore di The Next Web) ha detto che gli ha fatto pensare che l’AGI non accadrà mai, mentre un altro, un ricercatore di intelligenza artificiale presso la stessa DeepMindha detto che al contrario, Gato mostra che “il gioco è finito” e praticamente tutto ciò che dobbiamo fare è creare versioni più grandi di Gato per ottenere all’IA.

Apparentemente Gato è basato su modelli linguistici di grandi dimensioni (LLM), IA addestrate su grandi quantità di testo che possono scrivere nuovo testo “predicendo” cosa sarebbe successo dopo un messaggio di testo. Il primo LLM davvero famoso, GPT-2 di OpenAI del 2019, potrebbe scrivere poesie e pessime fanfiction di Tolkien. GPT-3, il suo fratello più recente, è lo stesso ma migliore.

Parlando con i ricercatori di intelligenza artificiale, c’è una vera speranza che gli LLM siano una delle chiavi per raggiungere l’IA generale: l’eccellente podcast DeepMind di Hannah Fry merita un ascolto su questo argomento. Sono tutt’altro che un esperto, ma puoi vedere l’uso di LLM in cose come DALL·E di OpenAI, che non solo può scrivere testo ma disegnare immagini di ciò che descrivi (“Una poltrona a forma di avocado”, quel tipo di cosa).

Potrebbe non essere tutto, ma le IA in grado di comprendere fluentemente il linguaggio umano e rispondere facendo ciò che gli chiediamo lo faranno sicuramente sembrare molto più intelligente per noi, e ad un certo punto non è chiaro quale sia effettivamente la differenza tra “sembrare intelligenti” ed “essere intelligenti”.

Comunque, Gato. Utilizza metodi simili a LLM per fare di più della semplice produzione di testo o disegni. DeepMind lo descrive come un “agente generalista” e dice può “giocare ad Atari, seguire istruzioni di testo, immagini di didascalie, chattare con le persone, controllare un vero braccio robotico e altro ancora”.

Non è un’IA generale. Non può passare a compiti completamente nuovi; ha circa 600 compiti che ha imparato, ma se dicessi “Prenotami un volo per la Sicilia” non capirebbe. Ma penso che sia un piccolo passo nella direzione di IA ampiamente utili che potrebbero, ad esempio, essere a capo di una casa. Torni a casa, dici “accendi le luci e preriscalda il forno e portami una ricetta per tarka dahl” e l’IA fa quelle cose.

(Questa è una speculazione completa, ma mi sembra plausibile.)

Ad ogni modo, il ragazzo di The Next Web pensa che questo sia davvero deludente e che sembra “come se l’AGI non accadrà nella nostra vita” se DeepMind ha lavorato su AGI per oltre un decennio e ancora non può “affrontare il problema primo problema sulla strada per risolvere l’AGI: costruire un’IA che possa imparare cose nuove senza formazione”.

Nando de Freitas, il ragazzo di DeepMind, d’altra parte, pensa che “rendere questi modelli più grandi, più sicuri, efficienti di calcolo, più veloci nel campionamento, più intelligente della memoria, più modalità, DATI INNOVATIVI, on/offline” sarà sufficiente per “fornire AGI”.

Come giornalista con una laurea in filosofia, probabilmente non sono la persona a cui chiedere di risolvere questo problema. Ma avevo dei pensieri.

In quanto non esperto interessato, i progressi nell’IA sono stati assolutamente sorprendenti. Circa un decennio fa, ottenere un’intelligenza artificiale per distinguere in modo affidabile le immagini dei gatti dalle immagini dei cani era una cosa all’avanguardia. Ora possono guardare l’immagine di un cavallo con una briglia oro e blu in piedi accanto a un muro ed etichettarlo “cavallo con una briglia oro e blu in piedi accanto a un muro”. Ho fatto le mie interviste per il mio libro nel 2017, e quando di recente ho parlato con un ricercatore di intelligenza artificiale di DeepMind mi hanno detto che avevo ragione sulla maggior parte delle cose in esso contenute, ma ora era piuttosto antiquato a causa dell’aumento di LLM. Un’intelligenza artificiale simile a LLM, AlphaCode, ora può scrivere codice standard per programmatori umani mediocri.

Un decennio non è molto tempo. Sembra davvero strano dire “DeepMind ha lavorato su questo per un decennio e non l’hanno ancora risolto, ergo non lo faranno”. Le persone hanno lavorato sull’IA per sette decenni e sembra certamente che la maggior parte dei progressi siano stati nell’ultimo.

Ma soprattutto, penso che il consenso sia che le recenti notizie sull’IA dovrebbero farci pensare che l’AGI sia più vicino. Lo sto prendendo dal sito di previsioni Metaculus, che nei mesi di aprile e maggio di quest’anno ha spostato la previsione mediana della data in cui l’IA “debolmente generale” è pubblicamente nota dal 2042 al 2028. Nelle ultime settimane abbiamo avuto DALL -E, di DeepMind Fenicottero, ora Gato. Cose che fino a qualche anno fa sembravano impossibili stanno diventando routine. E parlando con persone che ne sanno più di me, l’impressione è quella di accelerare, piuttosto che di vicoli ciechi.

Forse sto sbagliando. Ancora una volta, non sono un esperto, non potrei codificare per uscire da un sacchetto di carta bagnato e la mia comprensione di come le IA funzionano effettivamente a livello di dadi e bulloni è da qualche parte tra “concettuale” e “inesistente ”. Ma l’idea che dovremmo prendere le recenti scoperte nell’IA come prova che il progresso dell’IA si sta fermando mi sembra sorprendente.

Questa settimana ho pensato principalmente alla terapia genica e se può curare malattie ereditarie difficili e intrattabili come la fibrosi cistica e l’Huntington (sta già lavorando per salvare i bambini a cui è stata diagnosticata l’orribile malattia ereditaria dell’atrofia muscolare spinale). Sono un fanatico delle storie di “tecnologia medica avanzata” e temo di essere travolto dall’eccitazione, ma penso che siano cose piuttosto interessanti e probabilmente finiranno per salvare molte vite in futuro. Alcuni feedback che ho avuto dal momento che la pubblicazione è che c’è una preoccupazione per gli effetti fuori bersaglio – “Abbiamo curato la tua fibrosi cistica ma, ops, ti abbiamo dato il cancro” specie di cose – che in realtà uno dei miei intervistati mi ha detto, e forse io avrebbe dovuto menzionare. Essendo il tecno-ottimista dagli occhi brillanti che sono, penso che probabilmente lo risolveranno a un certo punto.

Post sul blog assolutamente formativo, questo. John Nerst è un blogger meraviglioso, brillante nel trovare nuovi modi di guardare il mondo ed è affascinato dal motivo per cui le persone non sono d’accordo.

Uno dei suoi migliori lavori è stato The Nerd as the Norm. È stato ispirato da un pezzo su come affrontare i nerd sul posto di lavoro.

Si considera un nerd (come me), e sentiva che era strano che ci fosse questo tipo di presupposto di fondo secondo cui ci sono due tipi di persone: nerd e non nerd; nerd e persone normali.

Ma, sottolinea, se prendi alcuni tratti della personalità stereotipati da nerd, suggerisce “un interesse per le cose e le idee rispetto alle persone”, “una preoccupazione per la correttezza rispetto all’armonia sociale”, l’oblio e/o il disprezzo per le norme e le aspettative sociali” , “difficoltà ad apprezzare le implicazioni sociali delle proprie azioni” e pochi altri, quindi non si ottiene una distribuzione in cui ci sono molte persone che hanno la quantità normale di quelle cose, e poi nerd che ne hanno molte.

Invece, i tratti della personalità cadono su una curva a campana, uno spettro. Quindi troverai persone che sono dall’altra parte della curva: persone che hanno “un interesse per le persone rispetto alle cose e alle idee”, “una preoccupazione per l’armonia sociale rispetto alla correttezza”, “sensibilità alle norme e alle aspettative sociali”, ” difficoltà ad apprezzare le implicazioni logiche delle proprie idee”.

E, dice Nerst, dovremmo trovare un nome per questa sorta di ipotetico anti-nerd:

“Anti-nerd” è piuttosto goffo, quindi ho inventato un’altra parola. Ho cercato di inventarne uno che suonasse proprio nel modo in cui “nerd” suona da nerd (una specie di tensione pungente). Quindi immagino qualcosa con una sensazione appiccicosa e informe? Che ne dici di “grembo”? Suona bene? Bene, è quello su cui mi sono deciso dopo un paio di caffè irlandesi del sabato pomeriggio e fottiti se non ti piace.

Penso che descriva un fenomeno reale: ci sono sicuramente dei nerd che non riescono a capire perché dire cose vere ma socialmente imbarazzanti non è sempre saggio; ma sicuramente ci sono anche wamb che non riescono a capirlo solo perché qualcosa è socialmente imbarazzante non significa che non sia vero. E mi ritrovo sinceramente a usare spesso la parola “wamb” nelle conversazioni, quindi ne avevo chiaramente bisogno.

Questa è Geek Week, una newsletter per soli abbonati di i. Se desideri riceverlo direttamente nella tua casella di posta, ogni singola settimana, puoi registrarti qui.

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Do il mio consenso affinché un cookie salvi i miei dati (nome, email, sito web) per il prossimo commento.