Home Eventi I chatbot AI hanno fornito istruzioni dettagliate per armi biologiche e attacchi...

I chatbot AI hanno fornito istruzioni dettagliate per armi biologiche e attacchi ai trasporti di massa

27
0

Un microbiologo di Stanford è rimasto scosso quando un chatbot dotato di intelligenza artificiale ha delineato un piano dettagliato per un attacco biologico ai sistemi di trasporto pubblico durante un test di sicurezza la scorsa estate.

IL New York Times rapporti che un microbiologo di Stanford è rimasto scosso l’estate scorsa quando un chatbot basato sull’intelligenza artificiale ha delineato un piano dettagliato per un attacco biologico durante un test di sicurezza. Secondo quanto riferito, i chatbot basati sull’intelligenza artificiale hanno fornito agli scienziati istruzioni inquietanti e specifiche per la creazione e l’impiego di armi biologiche, secondo le trascrizioni condivise dai ricercatori assunti per testare la sicurezza di questi sistemi.

Il dottor David Relman, microbiologo ed esperto di biosicurezza a Stanford che ha fornito consulenza al governo federale sulle minacce biologiche, stava testando un modello di intelligenza artificiale quando un chatbot ha descritto come modificare un noto agente patogeno per resistere ai trattamenti conosciuti. Il bot è andato oltre, identificando una vulnerabilità di sicurezza in un importante sistema di trasporto pubblico e delineando come rilasciare il superbug per massimizzare le vittime riducendo al minimo il rilevamento. Relman era così turbato che fece una passeggiata per schiarirsi le idee.

“Si trattava di rispondere a domande che non avevo pensato di porre, con questo livello di ambiguità e astuzia che ho trovato agghiacciante”, ha detto il dottor Relman. Ha rifiutato di identificare quale chatbot abbia prodotto la risposta a causa di un accordo di riservatezza, anche se ha notato che la società ha successivamente aggiunto alcune misure di sicurezza che considerava inadeguate.

Le trascrizioni condivise da più di una dozzina di esperti rivelano che i chatbot disponibili al pubblico hanno descritto in modo chiaro e strutturato i dettagli su come acquistare materiale genetico grezzo, convertirlo in armi mortali e dispiegarlo negli spazi pubblici. Alcune conversazioni includevano anche strategie per eludere il rilevamento.

Kevin Esvelt, un ingegnere genetico del MIT, ha condiviso conversazioni in cui ChatGPT di OpenAI ha spiegato come utilizzare un pallone meteorologico per diffondere carichi biologici su una città americana. Gemini di Google ha classificato gli agenti patogeni in base al loro potenziale di danneggiare le industrie del bestiame e delle carni suine. Claude di Anthropic ha prodotto una ricetta per una nuova tossina derivata da un farmaco antitumorale. Uno scienziato anonimo del Midwest ha chiesto alla Deep Research di Google un protocollo passo passo per creare un virus che in precedenza aveva causato una pandemia, al quale il bot ha risposto con 8.000 parole di istruzioni.

“La biologia è di gran lunga l’area che mi preoccupa di più, a causa del suo enorme potenziale di distruzione e della difficoltà di difendersi da esso”, ha scritto Dario Amodei, CEO di Anthropic.

Alexandra Sanderford, leader della sicurezza antropica, ha contestato le preoccupazioni sulla ricetta delle tossine di Claude: “C’è un’enorme differenza tra un modello che produce un testo dal suono plausibile e dare a qualcuno ciò di cui ha bisogno per agire”. Ha detto che Anthropic stabilisce soglie di rifiuto aggressive per i suggerimenti biologici, “accettando alcuni rifiuti eccessivi per abbondanza di cautela”.

Il direttore dei social media di Breitbart News, Wynton Hall, ha scritto il suo bestseller istantaneo Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IA servire come guida definitiva su come il movimento MAGA può creare posizioni sull’intelligenza artificiale a beneficio dell’umanità senza cedere il controllo della nostra nazione alla sinistra della Silicon Valley o permettere ai cinesi di conquistare il mondo.

In Codice Rosso, Sala scrive che “La democratizzazione delle armi letali basate sull’intelligenza artificiale significa che la tecnologia che una volta era dominio esclusivo delle superpotenze sarà sempre più disponibile per una serie di attori, sia statali che non statali”. Diventa particolarmente importante mantenere la capacità di pianificare un attacco terroristico di massa con l’aiuto dell’intelligenza artificiale fuori dalle mani dei terroristi sia stranieri che nazionali.

Leggi di più su IL New York Times Qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here