L’IA di Google PaLM è molto più strana che cosciente

La scorsa settimana, Google ha messo in congedo amministrativo uno dei suoi ingegneri dopo aver affermato di aver incontrato la senzienza della macchina su un agente di dialogo chiamato LaMDA. Poiché la senzienza delle macchine è un punto fermo dei film e poiché il sogno di una personalità artificiale è vecchio quanto la scienza stessa, la storia è diventata virale, raccogliendo molta più attenzione di qualsiasi altra storia sull’elaborazione del linguaggio naturale (PNL) abbia mai ricevuto. È un peccato. L’idea che LaMDA sia senziente non ha senso: LaMDA non è più cosciente di una calcolatrice tascabile. Ancora più importante, la sciocca fantasia della macchina senziente è stata ancora una volta autorizzata a dominare la conversazione sull’intelligenza artificiale quando sono in corso sviluppi molto più strani e più ricchi, e più potenzialmente pericolosi e belli.

Il fatto che LaMDA in particolare sia stato al centro dell’attenzione è, francamente, un po’ bizzarro. LaMDA è un agente di dialogo. Lo scopo degli agenti di dialogo è convincerti che stai parlando con una persona. I chatbot assolutamente convincenti sono tutt’altro che una tecnologia rivoluzionaria a questo punto. Programmi come Project December sono già in grado di ricreare i propri cari morti utilizzando la PNL. Ma quelle simulazioni non sono più vive di quanto lo sia una fotografia del tuo bisnonno morto.

Esistono già modelli più potenti e mistificanti di LaMDA. LaMDA opera su un massimo di 137 miliardi di parametri, che sono, a grandi linee, gli schemi linguistici che una NLP basata su trasformatore utilizza per creare una previsione di testo significativa. Di recente ho parlato con gli ingegneri che hanno lavorato all’ultimo modello linguistico di Google, PaLM, che ha 540 miliardi di parametri ed è in grado di svolgere centinaia di attività separate senza essere specificamente addestrato per eseguirle. È una vera intelligenza artificiale generale, nella misura in cui può applicarsi a diversi compiti intellettuali senza una formazione specifica “fuori dagli schemi”, per così dire.

Alcuni di questi compiti sono ovviamente utili e potenzialmente trasformativi. Secondo gli ingegneri – e, per essere chiari, io stesso non ho visto PaLM in azione, perché non è un prodotto – se gli fai una domanda in bengalese, può rispondere sia in bengalese che in inglese. Se gli chiedi di tradurre un pezzo di codice da C a Python, può farlo. Può riassumere il testo. Può spiegare le battute. Poi c’è la funzione che ha avviato i propri sviluppatori, e che richiede una certa distanza e freddezza intellettuale per non impazzire. PALM può ragionare. Tuttavia, per essere più precisi, e qui la precisione è molto importante, PaLM può eseguire ragioni.

Il metodo con cui PaLM ragiona è chiamato “suggerimento della catena di pensiero”. Sharan Narang, uno degli ingegneri che guidano lo sviluppo di PaLM, mi ha detto che i modelli linguistici di grandi dimensioni non sono mai stati molto bravi a fare salti logici a meno che non siano stati esplicitamente addestrati a farlo. Dare a un grande modello linguistico la risposta a un problema di matematica e poi chiedergli di replicare i mezzi per risolvere quel problema di matematica tende a non funzionare. Ma nel suggerimento della catena di pensiero, spieghi il metodo per ottenere la risposta invece di dare la risposta stessa. L’approccio è più vicino all’insegnamento ai bambini che alla programmazione delle macchine. “Se dicessi loro che la risposta è 11, sarebbero confusi. Ma se lo risolvi, se la cavano meglio”, ha detto Narang.

Google illustra il processo nella seguente immagine:

Alla stranezza generale di questa proprietà si aggiunge il fatto che gli stessi ingegneri di Google non capiscono come o perché PaLM sia in grado di svolgere questa funzione. La differenza tra PaLM e altri modelli potrebbe essere la brutale potenza di calcolo in gioco. Potrebbe essere il fatto che solo il 78% della lingua su cui è stato addestrato PaLM è l’inglese, ampliando così i significati disponibili per PaLM rispetto ad altri modelli linguistici di grandi dimensioni, come GPT-3. Oppure potrebbe essere il fatto che gli ingegneri hanno cambiato il modo in cui tokenizzavano i dati matematici negli input. Gli ingegneri hanno le loro ipotesi, ma loro stessi non pensano che le loro ipotesi siano migliori di quelle di chiunque altro. In parole povere, PaLM “ha dimostrato capacità che non avevamo mai visto prima”, mi ha detto Aakanksha Chowdhery, un membro del team PaLM che è vicino come qualsiasi ingegnere alla comprensione di PaLM.

Niente di tutto questo ha nulla a che fare con la coscienza artificiale, ovviamente. “Io non mi antropomorfismo”, disse Chowdhery senza mezzi termini. “Stiamo semplicemente prevedendo il linguaggio.” La coscienza artificiale è un sogno remoto che rimane saldamente radicato nella fantascienza, perché non abbiamo idea di cosa sia la coscienza umana; non esiste una tesi di coscienza funzionante falsificabile, solo un mucchio di nozioni vaghe. E se non c’è modo di testare la coscienza, non c’è modo di programmarla. Puoi chiedere a un algoritmo di fare solo ciò che gli dici di fare. Tutto ciò che possiamo inventare per confrontare le macchine con gli umani sono piccoli giochi, come il gioco di imitazione di Turing, che alla fine non provano nulla.

Il punto in cui siamo arrivati ​​invece è un posto più estraneo della coscienza artificiale. Stranamente, un programma come PaLM sarebbe più facile da capire se fosse semplicemente senziente. Almeno sappiamo cosa comporta l’esperienza della coscienza. Tutte le funzioni di PaLM che ho descritto finora provengono da nient’altro che la previsione del testo. Quale parola ha senso dopo? Questo è tutto. È tutto. Perché quella funzione dovrebbe comportare tali enormi salti nella capacità di dare significato? Questa tecnologia funziona con substrati che sono alla base non solo di tutto il linguaggio ma di tutti i significati (o c’è una differenza?), e questi substrati sono fondamentalmente misteriosi. PaLM può possedere modalità che trascendono la nostra comprensione. Cosa capisce il PaLM che non sappiamo come chiederlo?

Usando una parola come comprendere è irto di questo incrocio. Un problema nell’affrontare la realtà della PNL è la macchina dell’intelligenza artificiale, che, come ogni cosa nella Silicon Valley, si autoalimenta. Google, nei suoi materiali promozionali, afferma che PaLM dimostra “un’impressionante comprensione del linguaggio naturale”. Ma cosa significa la parola comprensione intendi in questo contesto? Io stesso ho due menti: da un lato, il PaLM e altri grandi modelli linguistici sono in grado di comprendere, nel senso che se gli dici qualcosa, il suo significato si registra. D’altra parte, questo non è affatto come la comprensione umana. “Trovo che il nostro linguaggio non sia in grado di esprimere queste cose”, mi ha detto Zoubin Ghahramani, vicepresidente della ricerca di Google. “Abbiamo parole per mappare il significato tra frasi e oggetti, e le parole che usiamo sono parole simili comprensione. Il problema è che, in senso stretto, si potrebbe dire che questi sistemi capiscono proprio come una calcolatrice comprende l’addizione, e in un senso più profondo non capiscono. Dobbiamo prendere queste parole con le pinze”. Inutile dire che le conversazioni su Twitter e la rete di informazioni virali in generale non sono particolarmente brave a prendere le cose con le pinze.

Ghahramani è entusiasta dell’incognita inquietante di tutto questo. Lavora nell’intelligenza artificiale da 30 anni, ma mi ha detto che in questo momento è “il momento più eccitante per essere sul campo” proprio per “la velocità con cui siamo sorpresi dalla tecnologia”. Vede un enorme potenziale per l’IA come strumento nei casi d’uso in cui gli esseri umani sono francamente molto pessimi nelle cose, ma i computer e i sistemi di intelligenza artificiale sono molto bravi in ​​queste. “Tendiamo a pensare all’intelligenza in un modo molto umano-centrico, e questo ci porta a tutti i tipi di problemi”, ha detto Ghahramani. “Uno è che noi antropomorfizziamo le tecnologie che sono stupidi abbinatori di modelli statistici. Un altro problema è che gravitiamo verso il tentativo di imitare le capacità umane piuttosto che completare le capacità umane”. Gli esseri umani non sono costruiti per trovare il significato nelle sequenze genomiche, per esempio, ma possono esserlo i grandi modelli linguistici. I modelli linguistici di grandi dimensioni possono trovare significato in luoghi in cui possiamo trovare solo caos.

Anche così, qui sono in gioco enormi pericoli sociali e politici, insieme a possibilità di bellezza ancora difficili da capire. I modelli linguistici di grandi dimensioni non producono coscienza, ma producono imitazioni convincenti della coscienza, che miglioreranno solo drasticamente e continueranno a confondere le persone. Quando anche un ingegnere di Google non può dire la differenza tra un agente di dialogo e una persona reale, quale speranza ci sarà quando questa roba raggiungerà il grande pubblico? A differenza della senzienza della macchina, queste domande sono reali. Rispondere richiederà una collaborazione senza precedenti tra umanisti e tecnologi. È in gioco la natura stessa del significato.

Quindi, no, Google non ha una coscienza artificiale. Invece, sta costruendo sistemi linguistici di grandi dimensioni enormemente potenti con l’obiettivo finale, come ha affermato Narang, “per consentire un modello in grado di generalizzare su milioni di attività e ingerire dati in più modalità”. Francamente, è abbastanza di cui preoccuparsi senza che i robot fantascientifici giochino sugli schermi nella nostra testa. Google non ha in programma di trasformare PaLM in un prodotto. “Non dovremmo anticipare noi stessi in termini di capacità”, ha detto Ghahramani. “Dobbiamo affrontare tutta questa tecnologia in modo cauto e scettico”. L’intelligenza artificiale, in particolare l’IA derivata dal deep learning, tende a crescere rapidamente attraverso periodi di sviluppo scioccante, per poi arrestarsi. (Vedi auto a guida autonoma, imaging medico, ecc.) Quando arrivano i salti, però, arrivano in modo duro e veloce e in modi inaspettati. Gharamani mi ha detto che dobbiamo compiere questi salti in sicurezza. Ha ragione. Stiamo parlando di una macchina dal significato generalizzato: sarebbe bene stare attenti.

La fantasia della sensibilità attraverso l’intelligenza artificiale non è solo sbagliata; è noioso. È il sogno dell’innovazione attraverso le idee ricevute, il futuro di persone le cui menti non sono mai sfuggite all’incantesimo dei serial di fantascienza degli anni ’30. Le domande che ci vengono imposte dall’ultima tecnologia di intelligenza artificiale sono le più profonde e le più semplici; sono domande che, come sempre, siamo del tutto impreparati ad affrontare. Temo che gli esseri umani potrebbero semplicemente non avere l’intelligenza per affrontare le ricadute dell’intelligenza artificiale. Il confine tra il nostro linguaggio e il linguaggio delle macchine si sta confondendo e la nostra capacità di comprendere la distinzione si sta dissolvendo all’interno della confusione.

.

Leave a Comment