I giornalisti Ronan Farrow e Andrew Marantz hanno pubblicato un’indagine su Sam Altman, il boss dell’intelligenza artificiale dietro OpenAI, rivelando una storia preoccupante di inganno e tendenze sociopatiche. Un ex membro del consiglio di amministrazione di OpenAI spiega: “Ha due tratti che non si vedono quasi mai nella stessa persona. Il primo è un forte desiderio di compiacere le persone, di piacere in ogni determinata interazione. Il secondo è una mancanza quasi sociopatica di preoccupazione per le conseguenze che possono derivare dall’ingannare qualcuno.”
IL Newyorkese ha pubblicato un’importante indagine sul CEO di OpenAI Sam Altman scritta da Ronan Farrow e Andrew Marantz. L’articolo fornisce una visione affascinante e approfondita della vita di Altman, compresi i suoi dettagli dettagliati estromissione di breve durata dalla società.
L’articolo spiega che figure di spicco nel mondo dell’intelligenza artificiale nutrono una profonda sfiducia nei confronti di Altman, e molti usano la parola “sociopatico” per descrivere la sua personalità. L’elenco dei nemici di Altman si estende oltre il cofondatore di OpenAI Ilya Sutskever, che in seguito lasciò l’azienda fallendo per dare il via ad Altman, e al CEO di Anthropic, Dario Amodei, che lo è acerrimi nemici con Altmann. Come scrivono Farrow e Marantz, anche gli ex membri del consiglio di OpenAI vedono Altman come “non vincolato dalla verità:”
Farrow e Marantz spiegano nel loro articolo che le tendenze sociopatiche di Altman non si traducono solo in un ego ferito con gli altri dirigenti. Il suo approccio al business ha causato problemi nel mondo reale, come il lancio di ChatGPT senza le adeguate barriere di sicurezza:
A quel punto, come mostrano i messaggi interni, dirigenti e membri del consiglio erano arrivati a credere che le omissioni e gli inganni di Altman avrebbero potuto avere conseguenze per la sicurezza dei prodotti OpenAI. In una riunione nel dicembre 2022, Altman ha assicurato ai membri del consiglio che una serie di funzionalità in un prossimo modello, GPT-4, erano state approvate da un comitato di sicurezza. Toner, membro del consiglio ed esperto di politiche sull’intelligenza artificiale, ha richiesto la documentazione. Ha appreso che le funzionalità più controverse, quella che consentiva agli utenti di “perfezionare” il modello per attività specifiche e un’altra che lo utilizzava come assistente personale, non erano state approvate. Mentre McCauley, membro del consiglio e imprenditore, lasciava la riunione, un dipendente la prese da parte e le chiese se fosse a conoscenza della “violazione” in India. Altman, durante molte ore di briefing con il consiglio, aveva trascurato di menzionare che Microsoft aveva rilasciato una prima versione di ChatGPT in India senza completare la necessaria revisione della sicurezza. “È stato semplicemente completamente ignorato”, ha detto Jacob Hilton, all’epoca ricercatore di OpenAI.
Il direttore e autore dei social media di Breitbart News, Wynton Hall, spiega nel suo bestseller istantaneo: Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IAche i conservatori devono sviluppare un piano per affrontare i pregiudizi insiti nell’intelligenza artificiale da parte della sinistra nella Silicon Valley. Soprattutto quando le personalità che gestiscono le aziende di intelligenza artificiale sono difficili da conoscere come Sam Altman, è necessario un quadro efficace per ottenere i vantaggi dell’intelligenza artificiale senza pregiudizi e svantaggi.
Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.


