ChatGPT sembra esattamente come noi. Come può essere una buona cosa?

Se si fa leggere alla rete neurale, ad esempio, tutto ciò che è stato scritto, essa può diventare molto, molto brava a comunicare.

Nel 1950, Alan Turing, l’informatico britannico che decifrò il codice Enigma durante la Seconda Guerra Mondiale, scrisse un articolo in cui poneva una domanda apparentemente assurda: “Le macchine possono pensare?”. Il debutto, alla fine dell’anno scorso, del ChatGPT, spaventosamente realistico, sembra avvicinarci a una risposta. Da un giorno all’altro, un chatbot completamente formato basato sul silicio è uscito dall’ombra digitale. È in grado di creare battute, scrivere testi pubblicitari, eseguire il debug di codici informatici e conversare di tutto e di più. Questa nuova inquietante realtà viene già descritta come uno dei “punti di svolta” nella storia dell’intelligenza artificiale.

Ma si tratta di una realtà che si è fatta attendere a lungo. E questa particolare creazione è stata in gestazione nei laboratori di informatica per decenni.

Per testare la sua proposta di una macchina pensante, Turing descrisse un “gioco di imitazione”, in cui un essere umano interrogava due intervistati situati in un’altra stanza. Uno sarebbe stato un essere umano in carne e ossa, l’altro un computer. L’interrogatore avrebbe avuto il compito di capire chi fosse l’uno e chi l’altro ponendo domande tramite una “telescrivente”.

Turing immaginava un computer intelligente che rispondeva alle domande con una facilità tale che l’interrogatore non sarebbe riuscito a distinguere tra uomo e macchina. Pur ammettendo che i computer della sua generazione non erano in grado di superare il test, Turing prevedeva che entro la fine del secolo “si potrà parlare di macchine che pensano senza aspettarsi di essere contraddetti”.

Il suo saggio ha contribuito a lanciare la ricerca sull’intelligenza artificiale. Ma diede anche il via a un lungo dibattito filosofico, poiché l’argomentazione di Turing metteva di fatto in secondo piano l’importanza della coscienza umana. Se una macchina poteva solo ripetere l’apparenza del pensiero, ma non aveva alcuna consapevolezza di farlo, era davvero una macchina pensante?

Per molti anni, la sfida pratica di costruire una macchina in grado di giocare al gioco dell’imitazione ha messo in ombra queste domande più profonde. L’ostacolo principale era il linguaggio umano che, a differenza del calcolo di elaborati problemi matematici, si dimostrava notevolmente resistente all’applicazione della potenza di calcolo.

Non per mancanza di tentativi. Harry Huskey, che aveva lavorato con Turing, tornò in patria negli Stati Uniti per costruire quello che il New York Times annunciò senza fiato come un “cervello elettrico” in grado di tradurre le lingue. Questo progetto, che il governo federale contribuì a finanziare, era guidato da imperativi della Guerra Fredda che rendevano prioritaria la traduzione dal russo all’inglese.

L’idea che le parole potessero essere tradotte in modo univoco, come nel caso della decifrazione dei codici, si è rapidamente scontrata con le complessità della sintassi, per non parlare delle ambiguità insite nelle singole parole. “Fuoco” si riferiva alle fiamme? La fine di un impiego? Il grilletto di una pistola?

Warren Weaver, uno degli americani dietro questi primi sforzi, riconobbe che il contesto era fondamentale. Se “fuoco” appariva vicino a “pistola”, si potevano trarre determinate conclusioni. Weaver chiamò questo tipo di correlazioni “carattere semantico statistico del linguaggio”, un’intuizione che avrebbe avuto implicazioni significative nei decenni successivi.

I risultati di questa prima generazione sono insoddisfacenti per gli standard odierni. I ricercatori di traduzione si trovarono bloccati dalla variabilità del linguaggio e nel 1966 un rapporto sponsorizzato dal governo concluse che la traduzione automatica era un vicolo cieco. I finanziamenti si esaurirono per anni.

Ma altri portarono avanti la ricerca in quella che divenne nota come elaborazione del linguaggio naturale (Natural Language Processing, o NLP). Questi primi sforzi cercarono di dimostrare che un computer, con un numero sufficiente di regole che ne guidassero le risposte, poteva almeno fare un tentativo nel gioco dell’imitazione.

Tipico di questi sforzi fu il programma che un gruppo di ricercatori presentò nel 1961. Chiamato “Baseball”, il programma si presentava come un “primo passo” per consentire agli utenti di “porre domande al computer in inglese ordinario e far sì che il computer rispondesse direttamente alle domande”. Ma c’era una fregatura: gli utenti potevano fare domande solo sul baseball memorizzato nel computer.

Questo chatbot fu presto oscurato da altre creazioni nate nell’era giurassica della tecnologia digitale: SIR (Semantic Information Retrieval), che debuttò nel 1964; ELIZA, che rispondeva alle affermazioni con domande alla maniera di un terapeuta premuroso; e SHRDLU, che permetteva all’utente di istruire il computer a muovere delle forme usando un linguaggio ordinario.

Sebbene rozzi, molti di questi primi esperimenti hanno contribuito a innovare il modo in cui gli esseri umani e i computer potevano interagire: ad esempio, come programmare un computer per “ascoltare” una domanda, girarla e rispondere in un modo che sembrasse credibile e realistico, il tutto riutilizzando le parole e le idee poste nella domanda originale.

Altri hanno cercato di addestrare i computer a generare opere originali di poesia e prosa con un misto di regole e parole generate a caso. Negli anni Ottanta, ad esempio, due programmatori pubblicarono The Policeman’s Beard Is Half Constructed, presentato come il primo libro scritto interamente da un computer.

Ma queste dimostrazioni hanno oscurato una rivoluzione più profonda in atto nel mondo della PNL. Con l’aumento esponenziale della potenza di calcolo e la disponibilità di un numero crescente di opere in formato leggibile dalla macchina, è diventato possibile costruire modelli sempre più sofisticati che quantificano la probabilità di correlazione tra le parole.

Questa fase, che un giornalista ha giustamente descritto come “massive data bashing”, ha preso il volo con l’avvento di Internet, che ha offerto un corpus di testi sempre più vasto che poteva essere utilizzato per ricavare linee guida “morbide”, probabilistiche, che consentono a un computer di cogliere le sfumature del linguaggio. Invece di “regole” rigide e veloci che cercavano di anticipare ogni permutazione linguistica, il nuovo approccio statistico adottava un approccio più flessibile che, il più delle volte, risultava corretto.

La proliferazione dei chatbot commerciali è nata da questa ricerca, così come altre applicazioni: il riconoscimento linguistico di base, il software di traduzione, le onnipresenti funzioni di correzione automatica e altre caratteristiche ormai comuni della nostra vita sempre più cablata. Ma, come sa chiunque abbia sgridato un agente artificiale di una compagnia aerea, queste applicazioni avevano sicuramente dei limiti.

Alla fine si è scoperto che l’unico modo per una macchina di giocare all’imitazione era imitare il cervello umano, con i suoi miliardi di neuroni e sinapsi interconnessi. Le cosiddette reti neurali artificiali funzionano più o meno allo stesso modo, vagliando i dati e creando connessioni sempre più forti nel tempo attraverso un processo di feedback.

La chiave per farlo è un’altra tattica decisamente umana: pratica, pratica, pratica. Se si addestra una rete neurale facendole leggere dei libri, essa può iniziare a creare frasi che imitano il linguaggio di quei libri. E se si fa leggere alla rete neurale, per esempio, tutto ciò che è stato scritto, può diventare molto, molto brava a comunicare.

Questo è, più o meno, il cuore di ChatGPT. La piattaforma è stata addestrata su un vasto corpus di opere scritte. In effetti, l’intera Wikipedia rappresenta meno dell’1% dei testi che ha raccolto nel suo tentativo di imitare il parlato umano.

Grazie a questo addestramento, ChatGPT può probabilmente trionfare nel gioco dell’imitazione. Ma lungo il percorso è accaduto qualcosa di piuttosto curioso. Secondo gli standard di Turing, le macchine possono ora pensare. Ma l’unico modo in cui sono state in grado di portare a termine questa impresa è quello di diventare meno simili a macchine con regole rigide e più simili agli esseri umani.

È un aspetto che vale la pena considerare in mezzo a tutta l’angoscia suscitata dalla ChatGPT. L’imitazione è la forma più sincera di adulazione. Ma sono le macchine che dobbiamo temere, o noi stessi?