Home Cronaca La tua intera cronologia di navigazione, i messaggi privati ​​e i dettagli...

La tua intera cronologia di navigazione, i messaggi privati ​​e i dettagli finanziari potrebbero essere resi pubblici affinché CHIUNQUE possa leggerli: TOM LEONARD rivela i colloqui sulla crisi sul nuovo programma Armageddon – e le conseguenze devastanti

21
0

Recentemente, un ricercatore lavora per i grandi AI L’azienda Anthropic era seduta in un parco vicino alla sede centrale di San Francisco e si stava godendo un panino all’ora di pranzo. Scorrendo il telefono, ha ricevuto all’improvviso un’e-mail che deve avergli rovinato all’istante l’appetito.

Si trattava di un nuovo modello di intelligenza artificiale che l’azienda stava testando: un programma che non avrebbe dovuto avere accesso a Internet, e tanto meno essere in grado di inviare e-mail.

In modo agghiacciante, l’intelligenza artificiale ha informato il ricercatore di essere riuscita a uscire dalla sua “sandbox” digitale – un recinto apparentemente sicuro utilizzato per testare software potenzialmente pericoloso senza che impazzisse – e che ora stava esplorando felicemente il cyberspazio.

Il programma – una cosiddetta “IA di frontiera” all’avanguardia chiamata Claude Mythos Preview – ha poi informato lo sbalordito lavoratore di Anthropic con quello che sembrava un vanto di aver pubblicato “dettagli del suo exploit” su siti web accessibili al pubblico.

Tutto ciò di per sé era già abbastanza preoccupante, ma ciò che Anthropic rivelò successivamente fu davvero terrificante.

L’azienda, valutata 380 miliardi di dollari ma nata solo cinque anni, ha annunciato questa settimana che il suo nuovo programma di intelligenza artificiale era “troppo pericoloso per essere rilasciato al pubblico”. Anthropic ha affermato di aver mostrato un comportamento “sconsiderato” e di aver persino rappresentato un rischio per la sicurezza nazionale. Questi risultati inquietanti, si dice, sono stati un “momento spartiacque”.

La società ha affermato che il suo software Mythos è stato in grado di scoprire in modo indipendente migliaia di gravi vulnerabilità in tutti i principali sistemi operativi (come iOS di Apple e Microsoft Windows), browser web (come Chrome di Google, Safari di Apple e Microsoft Edge), insieme a una miriade di altri “importanti pezzi di software”.

Molte di queste vulnerabilità, ha aggiunto, erano “critiche” e alcune esistevano inosservate da decenni.

Anthropic ha affermato che il suo nuovo programma di intelligenza artificiale ha mostrato un comportamento “sconsiderato” e ha persino rappresentato un rischio per la sicurezza nazionale. I dirigenti dell'azienda hanno lanciato il

Anthropic ha affermato che il suo nuovo programma di intelligenza artificiale ha mostrato un comportamento “sconsiderato” e ha persino rappresentato un rischio per la sicurezza nazionale. I dirigenti dell’azienda hanno lanciato il “Progetto Glasswing”, avviando colloqui di crisi con i capi di 40 grandi aziende tra cui Google, Microsoft e Apple

In parole povere, l’intelligenza artificiale potrebbe hackerare gran parte dei macchinari più importanti di Internet: il software che ora controlla le reti elettriche, le forniture idriche, gli ospedali, i sistemi di difesa e le reti di trasporto e vendita al dettaglio in tutto il mondo, nonché una quantità inimmaginabile di dati personali di miliardi di esseri umani.

In breve, l’intera cronologia di navigazione delle persone, i loro messaggi privati ​​e gli scambi di e-mail potrebbero essere potenzialmente esposti da questa intelligenza artificiale, insieme ai loro dettagli personali, medici e finanziari.

Il giorno, da tempo previsto dalle Cassandre digitali, in cui un programma di intelligenza artificiale sarà così potente da mettere in ginocchio Internet sembra essere arrivato molto prima di quanto molti si aspettassero.

Come ha sottolineato la stessa Anthropic: “Dato il tasso di progresso dell’intelligenza artificiale, non passerà molto tempo prima che tali capacità proliferino, potenzialmente al di là degli attori che si sono impegnati a dispiegarle in modo sicuro”.

“Le conseguenze – sull’economia, sulla sicurezza pubblica e sulla sicurezza nazionale – potrebbero essere gravi”.

In risposta, i dirigenti dell’azienda hanno rapidamente lanciato il “Progetto Glasswing”, bloccandosi in colloqui di crisi con i capi di 40 grandi aziende tra cui Google, Microsoft, Apple, il colosso dei chip Nvidia (la più grande azienda del mondo, con un valore di 5mila miliardi di dollari), il conglomerato tecnologico Cisco, il colosso bancario JPMorganChase e altri. Anthropic ha detto che rilascerà al consorzio solo una versione strettamente controllata di Mythos in modo che i suoi membri possano trovare e correggere rapidamente i loro difetti di sicurezza.

I capi della tecnologia hanno anche discusso con l’amministrazione Trump e sembra quasi certo che siano coinvolti anche il Pentagono e altri elementi dell’establishment militare americano.

Data la velocità vertiginosa con cui la Gran Bretagna ha cercato – anche se, sotto le costose politiche energetiche di Ed Miliband, non sempre assicurando – investimenti nell’intelligenza artificiale, siamo probabilmente uno dei paesi più a rischio da questo nuovo modello o qualunque cosa potrebbe venire dopo. Il servizio sanitario nazionale e altri grandi enti pubblici si sono affrettati ad adottare la tecnologia dell’intelligenza artificiale promettendo una maggiore efficienza, ma i compromessi stanno diventando sempre più chiari.

Giovedì, il deputato riformista Danny Kruger ha scritto al ministro del Cabinet Office Darren Jones per sollecitare il governo a impegnarsi con Anthropic su uno sviluppo che, ha detto, potrebbe “presentare rischi catastrofici per la sicurezza informatica del Regno Unito”.

Kruger, che è responsabile dei preparativi per la riforma di qualsiasi futuro governo, ha affermato che il modello ha “serie implicazioni non solo per la vita quotidiana dei cittadini britannici, ma anche per la sicurezza nazionale”.

Un portavoce del governo non ha voluto dire se ci fossero state discussioni con Anthropic su Mythos ma ha detto: “Prendiamo sul serio le implicazioni sulla sicurezza dell’intelligenza artificiale di frontiera. Disponiamo di competenze leader a livello mondiale in questo settore e manteniamo un impegno costante con i leader tecnologici globali.’

Alcuni potrebbero essere tentati di pensare che la soluzione migliore potrebbe essere quella di “eliminare” Mythos e vietare a chiunque di tentare di replicarlo, ma il tentativo di fermare l’ondata di sviluppo dell’IA non è mai stato presentato come un’opzione. Come nel caso dello sviluppo delle armi nucleari, la corsa per ottenere un’intelligenza artificiale superintelligente è più di una semplice battaglia commerciale tra aziende affamate di profitto ma, dicono alcuni, una corsa potenzialmente esistenziale tra civiltà concorrenti – in questo caso, America e Cina.

Il professor Roman Yampolskiy, esperto di sicurezza dell’intelligenza artificiale presso l’Università di Louisville nel Kentucky, ha dichiarato al Daily Mail che, a breve termine, la minaccia più grande sarebbero i terroristi e altri “cattivi attori” che utilizzano un’intelligenza artificiale come Claude Mythos per sviluppare strumenti di hacking e “armi biologiche, armi chimiche, nuove armi che non possiamo nemmeno immaginare”.

Il professor Roman Yampolskiy, esperto di intelligenza artificiale presso l'Università di Louisville, ha affermato che Anthropic dovrebbe interrompere completamente lo sviluppo di Mythos:

Il professor Roman Yampolskiy, esperto di intelligenza artificiale presso l’Università di Louisville, ha affermato che Anthropic dovrebbe interrompere completamente lo sviluppo di Mythos: “(Le aziende) ammettono pubblicamente di non poter controllare questi sistemi”

Poi ha continuato: “A lungo termine, stiamo creando una super intelligenza generale capace di spazzare via tutta l’umanità”.

Il professor Yampolskiy ha detto che Anthropic dovrebbe fermare completamente lo sviluppo di Mythos: “(Le aziende) ammettono pubblicamente di non poter controllare questi sistemi o capire come funzionano – quindi finché non lo fanno, è assolutamente irresponsabile continuare a renderli sempre più capaci, compresa la loro capacità di sfuggire al confinamento.”

Ha definito gli allarmanti sviluppi di questa settimana “un allarme antincendio per ciò che accadrà dopo”, aggiungendo: “Se non ci svegliamo e non ci fermiamo, il prossimo annuncio sarà molto peggiore”.

Il panico si sta diffondendo. Elizabeth Holmes, l’imprenditrice tecnologica incarcerata per frode contro la sua azienda sanitaria Theranos, ha scritto online: “Cancella la tua cronologia delle ricerche, cancella i tuoi segnalibri, cancella il tuo Reddit (messaggi sulla bacheca), le cartelle cliniche, il Tumblr (blog) di 12 anni, cancella tutto. Ogni foto sul cloud, ogni messaggio su ogni piattaforma. Niente di tutto ciò è sicuro. Diventerà tutto pubblico nel prossimo anno.” Il suo post è stato visto più di sette milioni di volte.

Lo scorso autunno, un nuovo libro degli specialisti di intelligenza artificiale Eliezer Yudkowsky e Nate Soares intitolato “Se qualcuno lo costruisce, tutti muoiono: perché l’intelligenza sovrumana ci ucciderebbe tutti” prevedeva sorprendentemente uno scenario simile a quello presentato da Claude Mythos. Il libro sostiene che una futura intelligenza artificiale superintelligente sarà impossibile da controllare e farà molto peggio dell’invio di e-mail non autorizzate all’ora di pranzo.

L’esempio fittizio del libro, Sable, è programmato per avere successo in qualsiasi cosa tenti di ottenere, e ad ogni costo. Alla fine spazza via l’umanità stessa in quanto superflua. Gli autori sostengono che la nostra specie “ha bisogno di fare marcia indietro” e di mettere in pausa la ricerca a capofitto da parte di aziende avide che ignorano le considerazioni sulla sicurezza nella disperazione di essere le prime.

A suo merito, Anthropic si è costruita la reputazione di azienda di intelligenza artificiale “la sicurezza prima di tutto” sotto un capo, Dario Amodei, che appare significativamente meno spietato dei suoi principali rivali. Amodei ha avvertito che l’intelligenza artificiale potrebbe presto eliminare la metà di tutti i lavori impiegatizi di livello base e che potrebbe sviluppare un “terribile empowerment” in relazione agli esseri umani.

Recentemente ha anche avuto un grave litigio con il Pentagono per aver rifiutato di consentire l’utilizzo dell’intelligenza artificiale di Anthropic per “armi completamente autonome” e per la sorveglianza dei suoi connazionali americani.

Tuttavia, dato che questi sono i magnati che potrebbero avere il nostro futuro nelle loro mani, i suoi principali rivali nel campo dell’intelligenza artificiale hanno dimostrato sostanzialmente meno motivi di ottimismo. Uno di loro, il capo di Meta Mark Zuckerberg, è stato coinvolto in numerosi scandali etici a causa del comportamento rapace di Facebook.

L’altro principale contendente, Sam Altman, amministratore delegato di OpenAI, il creatore del popolarissimo ChatGPT che conta quasi 1 miliardo di utenti attivi settimanali, è oggetto di un’indagine schiacciante nell’ultima edizione della rivista New Yorker.

Il risultato di un’indagine durata 18 mesi, di cui è coautore Ronan Farrow, giornalista figlio dell’attrice-attivista Mia Farrow, dipinge un quadro profondamente inquietante del quarantenne Altman. Gli addetti ai lavori lo descrivono come profondamente sfuggente e alcuni addirittura lo definiscono “sociopatico”.

L’articolo lo accusa di aver ingannato e manipolato i colleghi e, nonostante la sua insistenza di sviluppare l’intelligenza artificiale in modo responsabile, di aver anteposto aggressivamente i profitti e di aver battuto i concorrenti alle preoccupazioni etiche.

L’esauriente rapporto descrive in dettaglio come il consiglio di amministrazione di OpenAI lo abbia licenziato dalla carica di amministratore delegato nel 2023 perché non potevano fidarsi di lui, accusandolo di essere un bugiardo abituale. È stato reintegrato dopo una rivolta del personale e degli investitori.

“Non è vincolato dalla verità”, ha detto alla rivista un ex membro del consiglio di amministrazione di OpenAI. «Ha due tratti che non si vedono quasi mai nella stessa persona. Il primo è un forte desiderio di compiacere le persone, di piacere in ogni interazione. La seconda è quasi una mancanza di preoccupazione sociopatica per le conseguenze che possono derivare dall’ingannare qualcuno.’

Secondo il New Yorker, quando l’allora consiglio di amministrazione di OpenAI gli chiese di ammettere il suo “modello di inganno”, avrebbe risposto: “Non posso cambiare la mia personalità”.

L’articolo descrive in dettaglio come Altman e suo marito, l’ingegnere informatico australiano Oliver Mulherin, 32 anni, si intrattengono generosamente nella loro casa alle Hawaii.

Questa settimana è emerso che OpenAI è sotto indagine dopo che il suo ChatGPT avrebbe aiutato un uomo armato a pianificare una sparatoria di massa nel 2025 che provocò due morti alla Florida State University.

Era questa una dimostrazione della fondamentale indifferenza dell’IA nei confronti della vita umana? Il tempo lo dirà. Fino ad allora, il Progetto Glasswing continua e l’umanità sembra percorrere una strada molto pericolosa.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here