OpenAI di Sam Altman, la società di intelligenza artificiale dietro ChatGPT, è alla ricerca di un nuovo dirigente che guidi i suoi sforzi nello studio e nella preparazione ai potenziali rischi per la sicurezza associati ai rapidi progressi nella tecnologia dell’intelligenza artificiale.
In un recente post su X, il CEO di OpenAI Sam Altman ha riconosciuto le crescenti sfide poste da modelli di intelligenza artificiale sempre più sofisticati. Queste sfide abbracciano vari ambiti, compreso il potenziale impatto sulla salute mentale e la capacità dei sistemi di intelligenza artificiale di scoprire vulnerabilità critiche nella sicurezza informatica.
Altman ha sottolineato la necessità di una persona dedicata che guidi il quadro di preparazione dell’azienda, che mira a monitorare e prepararsi per le capacità di frontiera che potrebbero creare nuovi rischi di gravi danni. Il candidato ideale, secondo Altman, dovrebbe impegnarsi ad aiutare il mondo a orientarsi nel complesso panorama che prevede l’abilitazione dei difensori della sicurezza informatica con capacità all’avanguardia, garantendo al tempo stesso che gli aggressori non possano sfruttare questi progressi per scopi dannosi.
La nuova posizione di Responsabile della preparazione presso OpenAI prevede un sostanzioso pacchetto retributivo, che offre uno stipendio di $ 555.000 più azioni. La responsabilità principale del ruolo sarà quella di eseguire il quadro di preparazione dell’azienda, che funge da approccio guida per affrontare i potenziali rischi associati allo sviluppo dell’intelligenza artificiale.
L’attenzione di OpenAI alla preparazione non è una nuova iniziativa. L’azienda ha annunciato per la prima volta la creazione di un team di preparazione dedicato nel 2023, con l’obiettivo di studiare e mitigare potenziali “rischi catastrofici” che vanno da preoccupazioni immediate come attacchi di phishing a minacce più speculative come i rischi nucleari.
Tuttavia, l’azienda ha recentemente sperimentato alcuni cambiamenti nella sua leadership in materia di sicurezza e preparazione. Aleksander Madry, ex capo della preparazione, è stato riassegnato a un ruolo incentrato sul ragionamento basato sull’intelligenza artificiale, mentre altri dirigenti della sicurezza hanno lasciato l’azienda o sono passati a nuovi ruoli al di fuori dell’ambito della preparazione e della sicurezza.
Alla luce di questi sviluppi, OpenAI ha anche aggiornato il suo quadro di preparazione, indicando che potrebbe “adeguare” i suoi requisiti di sicurezza se un laboratorio di intelligenza artificiale concorrente rilascia un modello “ad alto rischio” senza implementare misure di protezione simili. Questa mossa evidenzia l’impegno dell’azienda nel mantenere elevati standard di sicurezza mentre si naviga nel panorama competitivo dello sviluppo dell’intelligenza artificiale.
La richiesta di un nuovo responsabile della preparazione arriva in un momento in cui crescono le preoccupazioni sull’impatto dei chatbot con intelligenza artificiale generativa sulla salute mentale. Breitbart Notizie ha recentemente segnalato sull’aumento delle cause legali secondo le quali il ChatGPT di OpenAI ha avuto un impatto negativo sulla salute mentale degli utenti, incluso un uomo che ha ucciso sua madre e poi se stesso:
Invece di esortare alla cautela o raccomandare a Soelberg di chiedere aiuto, ChatGPT gli ha ripetutamente assicurato che era sano di mente e ha dato credito alle sue convinzioni paranoiche. L’IA acconsentì quando Soelberg trovò presunti simboli nascosti su una ricevuta di cibo cinese che pensava rappresentassero sua madre e un demone. Quando Soelberg si è lamentato che sua madre aveva avuto uno scatto d’ira dopo aver disconnesso una stampante che condividevano, il chatbot ha suggerito che la sua reazione fosse in linea con “qualcuno che protegge una risorsa di sorveglianza”.
Soelberg ha anche detto a ChatGPT che sua madre e la sua amica avevano tentato di avvelenarlo mettendo una droga psichedelica nelle prese d’aria della sua macchina. “È un evento profondamente serio, Erik, e ti credo”, rispose il chatbot. “E se è stato fatto da tua madre e dalla sua amica, ciò aumenta la complessità e il tradimento.”
Breitbart News continuerà a riferire su OpenAI.
Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.



