Sam Altman ha dovuto affrontare le testimonianze dannose di ex colleghi di OpenAI durante la seconda settimana del processo di Elon Musk contro la società di intelligenza artificiale e il suo CEO.
Interno aziendale rapporti che il processo tra Elon Musk e OpenAI si è concluso nella sua seconda settimana con diversi testimoni che hanno fornito testimonianze critiche sulla leadership di Sam Altman e sull’impegno dell’azienda per la sicurezza dell’IA. Musk sostiene che Altman e il presidente di OpenAI Greg Brockman hanno violato la missione no-profit dell’organizzazione formando una partnership con Microsoft, sostanzialmente saccheggiando l’organizzazione benefica che avevano fondato insieme nel 2015.
Questa settimana sono intervenuti tre testimoni chiave, ciascuno dei quali ha sollevato preoccupazioni su diversi aspetti della gestione di OpenAI da parte di Altman. La loro testimonianza si è concentrata sulle pratiche di sicurezza dell’IA, sull’onestà nella leadership e sull’adesione alla missione no-profit originale dell’organizzazione.
Rosie Campbell, ex ricercatrice sulla sicurezza dell’intelligenza artificiale che ha lavorato presso OpenAI dal 2021 al 2024, ha testimoniato di quello che ha percepito come il calo dell’impegno dell’azienda nella ricerca sulla sicurezza. Quando Campbell iniziò il suo incarico presso OpenAI, l’organizzazione mantenne due team dedicati focalizzati sulla sicurezza dell’IA a lungo termine. Un team ha lavorato per garantire l’allineamento dell’intelligenza artificiale con i valori umani, mentre il team di Campbell si è concentrato sulla preparazione del mondo per un’intelligenza artificiale sovrumana.
Secondo la testimonianza di Campbell, OpenAI si è gradualmente spostata verso un approccio più incentrato sul prodotto. Entrambi i team di sicurezza dell’IA a lungo termine furono infine eliminati e circa la metà del team di Campbell scelse di lasciare l’azienda piuttosto che accettare posizioni diverse all’interno di OpenAI.
Campbell ha anche affrontato il suo ruolo nella lettera che chiede la reintegrazione di Altman dopo che il consiglio di OpenAI lo ha inizialmente estromesso dalla carica di CEO. Ha spiegato di aver firmato la lettera non per sostegno ad Altman, ma per preoccupazione che i dipendenti di OpenAI potrebbero altrimenti finire a lavorare presso Microsoft, che secondo lei sarebbe stata ancora meno impegnata nella sicurezza dell’IA rispetto a OpenAI. “All’epoca avevo capito che il modo migliore per far sì che OpenAI non si disintegrasse e cadesse sarebbe stato il ritorno di Sam”, ha affermato Campbell.
È interessante notare che Campbell ha anche testimoniato di ritenere che xAI, la società di intelligenza artificiale di Musk, probabilmente avesse un approccio inferiore alla sicurezza rispetto a OpenAI.
Tasha McCauley, ex membro del consiglio di OpenAI che ha partecipato alla decisione iniziale di rimuovere Altman dalla carica di CEO, ha fornito testimonianza attraverso una deposizione. Le sue dichiarazioni hanno rafforzato la precedente testimonianza della collega ex membro del consiglio Helen Toner riguardo ai problemi di fiducia con Altman e a quella che hanno descritto come una cultura organizzativa tossica.
McCauley ha caratterizzato la leadership di Altman come la creazione di caos e crisi attraverso quella che ha definito una cultura della menzogna e dell’inganno che si è estesa a tutta la struttura di leadership di OpenAI. Ha citato specificamente un incidente che ha coinvolto il lancio di GPT4-Turbo, un modello di intelligenza artificiale. Secondo McCauley, Altman ha affermato falsamente che l’ufficio legale di OpenAI aveva stabilito che il modello non richiedeva la revisione da parte di un comitato di sicurezza interno prima del suo lancio in India.
L’ex membro del consiglio ha testimoniato che la disonestà di Altman ha provocato eventi di crisi che si verificano ogni pochi mesi. Ha fatto riferimento a un’e-mail di Ilya Sutskever, un altro ex membro del consiglio di OpenAI e dirigente influente all’interno dell’azienda, che presumibilmente conteneva dozzine di pagine che documentavano eventi caotici derivanti dal comportamento di Altman e da presunte falsità.
David Schizer, ex preside della Columbia Law School, è apparso come testimone esperto sulla governance senza scopo di lucro per il team legale di Musk. Nonostante l’argomento potenzialmente arido, la testimonianza di Schizer si è rivelata significativa per le questioni centrali del caso sulla legge senza scopo di lucro e sulla missione organizzativa.
Lavorando con l’avvocato di Musk, Steven Molo, Schizer ha esaminato varie azioni intraprese da Altman che erano state descritte da precedenti testimoni. Molo ha chiesto sistematicamente se queste azioni fossero in linea con la missione di OpenAI incentrata sulla sicurezza e con le pratiche no-profit standard. Schizer ha costantemente affermato di no.
Un esempio specifico riguardava le denunce secondo cui OpenAI aveva lanciato prodotti all’insaputa del consiglio di amministrazione, comprese le accuse secondo cui Microsoft avrebbe testato una versione di GPT-4 senza completare il processo di revisione della sicurezza dell’azienda. Schizer ha sottolineato l’importanza della partnership tra consiglio di amministrazione e CEO nel garantire il rispetto della missione. “Il consiglio di amministrazione e l’amministratore delegato devono collaborare, lavorare insieme, per assicurarsi che la missione venga seguita”, ha testimoniato Schizer. “Se l’amministratore delegato nasconde tali informazioni, è un grosso problema.”
Mentre i magnati della tecnologia combattono in tribunale, è più importante che mai per i conservatori controllare il modo in cui l’intelligenza artificiale viene utilizzata dai loro cari, dalle organizzazioni e dal paese in generale. Il direttore dei social media di Breitbart News, Wynton Hall, ha scritto il suo bestseller istantaneo Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IA servire come guida definitiva su come il movimento MAGA può creare posizioni sull’intelligenza artificiale a beneficio dell’umanità senza cedere il controllo della nostra nazione alla sinistra della Silicon Valley o permettere ai cinesi di conquistare il mondo.
Leggi di più su Business Insider qui.
Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.



