
Quando ho visto “Data”, una vivace commedia off-Broadway sulla crisi etica dei dipendenti di un’azienda di intelligenza artificiale simile a Palantir, il mese scorso, sono rimasto colpito dalla sua preveggenza. Parla di un programmatore di computer brillante e conflittuale coinvolto in un progetto segreto – smetti di leggere qui se vuoi evitare spoiler – per vincere un contratto del Dipartimento per la Sicurezza Nazionale per un database che tiene traccia degli immigrati. Un vivace thriller teatrale, l’opera cattura perfettamente il linguaggio brillante e grandioso con cui i titani della tecnologia giustificano i loro progetti potenzialmente totalitari al pubblico e forse a se stessi.
“I dati sono il linguaggio del nostro tempo”, afferma un responsabile dell’analisi dei dati di nome Alex, che assomiglia molto al capo della Palantir, Alex Karp. “E come tutte le lingue, le sue narrazioni saranno scritte dai vincitori. Quindi, se coloro che parlano fluentemente la lingua non aiutano la democrazia a prosperare, la danneggeremo. E se non otteniamo questo contratto, lo farà qualcun altro meno fluente.”
Sono sempre alla ricerca di arte che cerchi di dare un senso al nostro momento politico sbandato e attraversato dalla crisi e ho trovato l’opera rinvigorente. Ma nelle ultime due settimane, quando gli eventi nel mondo reale hanno cominciato a riecheggiare alcuni punti della trama di “Data”, ha iniziato a sembrare quasi profetico.
Algoritmo spaventoso
Il suo protagonista, Maneesh, ha creato un algoritmo con poteri predittivi spaventosamente accurati. Quando ho visto lo spettacolo, non avevo idea se tale tecnologia fosse davvero all’orizzonte. Ma questa settimana, The Atlantic ha parlato di Mantic, una startup il cui motore di intelligenza artificiale supera molti dei migliori meteorologi umani in settori che vanno dalla politica, allo sport, all’intrattenimento.
Mi sono anche chiesto quante delle persone che ci sfruttano strumenti di intelligenza artificiale condividano davvero l’angoscia di Maneesh e del suo collega Riley, che si lamenta: “Vengo qui ogni giorno e rendo il mondo un posto peggiore”. Questo è quello che penso stiano facendo la maggior parte delle persone che lavorano sull’intelligenza artificiale, ma era difficile immaginare che molti di loro la pensino così, immersi come sono in una cultura che li loda come esploratori eroici sull’orlo di scoperte maestose nelle possibilità umane – o forse post-umane. Come ha affermato una recensione di “Data” su una rivista di New York: “Chi arriva così lontano nel lavoro senza riflettere – e giustificare da tempo – le conseguenze?”
Ma la settimana scorsa, Mrinank Sharma, un ricercatore sulla sicurezza presso Anthropic, ha lasciato con il tipo di lettera aperta che sarebbe sembrata selvaggiamente esagerata in una sceneggiatura teatrale. “Il mondo è in pericolo”, ha scritto, descrivendo la costante pressione sul lavoro “per mettere da parte ciò che conta di più”. D’ora in poi, disse Sharma, si sarebbe dedicato alla “costruzione di comunità” e alla poesia. Due giorni dopo Zoë Hitzig, ricercatrice di OpenAI, ha annunciato le sue dimissioni sul New York Times, descrivendo il modo in cui lo strumento potrebbe utilizzare i dati intimi delle persone per indirizzarle con annunci pubblicitari.
Ho contattato lo scrittore di “Data”, Matthew Libby, perché ero curioso di sapere come avesse fatto a ottenere così tante cose giuste, e ho scoperto che prima di lavorare in teatro, aveva studiato scienze cognitive alla Stanford University. Più nello specifico, è laureato in sistemi simbolici, un programma interdisciplinare che combina materie tra cui informatica, filosofia e psicologia. Ha sempre voluto diventare uno scrittore, ha detto, ma voleva assicurarsi di avere qualcosa di cui scrivere.
Non sorprende che Libby, laureatasi nel 2017, abbia sentito l’attrazione della Silicon Valley, tanto da fare un colloquio per uno stage presso Palantir. Aveva il cuore spezzato quando non l’ha capito. Ma quando si è imbattuto in un articolo di Intercept del 2017 intitolato “Palantir fornisce il motore per la macchina di deportazione di Donald Trump”, si è chiesto cosa avrebbe fatto se avesse lavorato lì, ed è così che è nato “Data”.
Forse la cosa più interessante di “Data” non è la sua visione di coloro che lasciano le aziende che producono IA pericolose, ma della maggioranza che resta e delle storie che si raccontano su ciò che stanno costruendo. “La mia esperienza nel settore tecnologico è che c’è sempre quest’aria di inevitabilità”, ha detto Libby. “Sai, ‘Non possiamo mettere in pausa nulla di tutto questo perché arriverà qualunque cosa accada, e non vuoi essere tu la persona che lo fa?'”
Fine del mondo
Tra le tecnologie, l’intelligenza artificiale è unica in quanto coloro che la creano – e ne traggono profitto – di tanto in tanto avvertono che potrebbe distruggere l’umanità. Come ha affermato Sam Altman nel 2015, poco prima di contribuire alla fondazione di OpenAI, “Penso che l’intelligenza artificiale probabilmente, molto probabilmente, porterà alla fine del mondo. Ma nel frattempo, ci saranno grandi aziende create con un serio machine learning”. Una versione leggermente troncata di quella citazione appare come un’epigrafe nella scrittura di Libby.
Proprio il mese scorso Dario Amodei, a capo di Anthropic, il più apparentemente responsabile dei giganti dell’intelligenza artificiale, ha pubblicato un saggio intitolato “L’adolescenza della tecnologia”, sulle potenziali apocalissi dell’intelligenza artificiale. I sistemi di intelligenza artificiale, ha scritto, potrebbero rivoltarsi contro l’umanità o aiutare a creare armi biologiche. Potrebbero essere utilizzati per costruire un panopticon digitale più completo di qualsiasi cosa esistente oggi o sviluppare una propaganda così precisa su misura per i suoi utenti da equivalere a un lavaggio del cervello.
Ma per come la vede Amodei, queste possibilità infernali non sono tanto una ragione per rallentare lo sviluppo dell’intelligenza artificiale o per tenerla fuori dalle mani dello stato di sorveglianza, quanto per assicurarsi che gli Stati Uniti restino un passo avanti rispetto alla Cina. “È logico utilizzare l’intelligenza artificiale per consentire alle democrazie di resistere alle autocrazie”, ha scritto. “Questo è il motivo per cui Anthropic ritiene importante fornire l’intelligenza artificiale alle comunità di intelligence e difesa negli Stati Uniti e ai suoi alleati democratici”. La sua argomentazione sarebbe più fondata se gli Stati Uniti facessero ancora, in un certo senso, parte di una coalizione di democrazie, piuttosto che una nazione governata da un aspirante autocrate sostenuto in gran parte dall’industria tecnologica.
In “Data”, Alex sostiene un’argomentazione simile a favore del contratto del Dipartimento per la Sicurezza Nazionale. “Noi siamo i combattenti che proteggono la democrazia”, dice. “La Cina ha già un sistema automatizzato di credito sociale che sta esportando nei paesi in via di sviluppo. La Russia ha l’infrastruttura di disinformazione più mirata conosciuta dall’uomo. Questo è ciò verso cui stanno innovando. Se smettiamo di innovare? Perdiamo il nostro vantaggio.” La minaccia dell’autoritarismo all’estero diventa una motivazione per costruire gli strumenti dell’autoritarismo digitale in patria. Peccato che non sia solo finzione.
Michelle Goldberg è editorialista del New York Times.



