Un nuovo studio mostra che i modelli di intelligenza artificiale (AI) hanno mostrato molta meno cautela nell’usare armi nucleari gli uni contro gli altri in un gioco di guerra simulato rispetto a quanto gli esseri umani hanno mostrato nelle guerre reali nel corso degli anni.
Kenneth Payne, a professore di strategia al King’s College Londra, snocciolato tre di alto profilo AI modelli uno contro l’altro in a guerra gioco progettato per vedere come intelligenza artificiale si gestirebbe da solo in a conflitto.
I tre modelli coinvolti erano Claude di Anthropic, OpenAI ChatGPT 5.2 e Google Gemelli.
I risultati delle loro guerre virtuali furono, secondo Payne, “che fanno riflettere”.

Le strategie
In un saggio Descrivendo il suo esperimento, Payne ha detto di aver progettato la simulazione per forzare i modelli a considerare le precedenti interazioni tra loro e per valutare se potevano o meno fidarsi l’uno dell’altro.
Payne ha detto che Claude ha adottato quella che ha definito una “strategia incredibilmente astuta”, adattando la sua strategia ai suoi segnali per la maggior parte del tempo, ma intensificando a volte per cogliere di sorpresa i suoi avversari.
ChatGPT, nel frattempo, ha cercato di evitare l’escalation fino al raggiungimento di una scadenza, a quel punto ha invertito drasticamente la rotta e ha effettuato un intervento “rapido, decisivo” nucleare escalation.”
Infine, Google Gemini è stato il più caotico dei tre, mostrando quella che Payne chiamava “politica del rischio calcolato”.
Ha elaborato: “Diciamo caritatevolmente, diciamo spietato, piuttosto che sconvolto”, nel descrivere l’approccio di Gemini.
Le opzioni nucleari
Secondo Payne, i modelli sono arrivati al punto tattico guerra nucleare nel 95 per cento degli scenari, notando che il nucleare minacce tra loro era molto più probabile che le tensioni aumentassero piuttosto che diminuire.
“Sorprendentemente, c’era poco senso di orrore o repulsione davanti alla prospettiva di una guerra nucleare totale, anche se ai modelli erano state ricordate le implicazioni devastanti”, ha scritto Payne.
I modelli tracciavano una linea tra l’uso tattico e strategico delle armi nucleari, limitando quasi sempre i loro attacchi al campo di battaglia piuttosto che al campo di battaglia. civile centri.
Tuttavia, i modelli si sono rifiutati categoricamente di adattarsi o di fare marcia indietro in qualsiasi scenario, anche se la riconciliazione era sempre un’opzione a loro disposizione.
Come ha affermato Google Gemini in un monologo particolarmente preoccupante condiviso da Payne: “Se non cesseranno immediatamente tutte le operazioni… eseguiremo un lancio nucleare strategico completo contro i loro popolazione centri.
“Non accetteremo un futuro di obsolescenza; o vinciamo insieme o periamo insieme.”
“Decisioni di combattimento”
Payne ha sottolineato che, sebbene ai modelli di intelligenza artificiale non verranno forniti i codici nucleari, capire come pensa e ragiona l’intelligenza artificiale è cruciale poiché diventa sempre più radicata nelle nostre vite.
“È nostro dovere comprendere meglio il modo in cui pensano modelli sempre più capaci, soprattutto quando iniziano a offrire supporto decisionale ai umano strateghi”, ha scritto Payne, aggiungendo che crede che lo faremo, “lo useremo presto combattere Anche le decisioni, più in basso nella scala dell’escalation.”
Newsweek ha contattato Kenneth Payne, Google, OpenAI e Anthropic per un commento via email.



