Home Eventi Microsoft aggiunge l’intelligenza artificiale a Windows nonostante i “nuovi rischi per la...

Microsoft aggiunge l’intelligenza artificiale a Windows nonostante i “nuovi rischi per la sicurezza”

32
0

La recente introduzione da parte di Microsoft di Copilot Actions, un agente AI sperimentale integrato in Windows, ha suscitato critiche da parte di esperti di sicurezza che mettono in dubbio la sicurezza di implementare nuove funzionalità prima di aver compreso appieno e contenerne i potenziali rischi

Ars Tecnica rapporti che Microsoft ha presentato questa settimana Copilot Actions, una serie di “funzionalità sperimentali” che consentono all’intelligenza artificiale di eseguire varie attività come l’organizzazione di file, la pianificazione di riunioni e l’invio di e-mail. Sebbene l’azienda abbia pubblicizzato l’agente AI come un collaboratore digitale attivo che migliora l’efficienza e la produttività, ha anche emesso un avvertimento sulle implicazioni sulla sicurezza derivanti dall’abilitazione della funzionalità.

L’avvertimento di Microsoft recita:

Quando queste funzionalità vengono introdotte, i modelli di intelligenza artificiale devono ancora affrontare limitazioni funzionali in termini di comportamento e occasionalmente possono avere allucinazioni e produrre risultati inaspettati. Inoltre, le applicazioni di intelligenza artificiale degli agenti introducono nuovi rischi per la sicurezza, come il cross-prompt injection (XPIA), in cui contenuti dannosi incorporati negli elementi o nei documenti dell’interfaccia utente possono sovrascrivere le istruzioni degli agenti, portando ad azioni indesiderate come l’esfiltrazione di dati o l’installazione di malware.

I problemi di sicurezza derivano da difetti noti inerenti alla maggior parte dei modelli linguistici di grandi dimensioni (LLM), incluso Copilot. I ricercatori hanno ripetutamente dimostrato che gli LLM possono fornire risposte fattivamente errate e illogiche, un comportamento noto come “allucinazioni”. Ciò significa che gli utenti non possono fidarsi completamente dell’output degli assistenti AI come Copilot, Gemini o Claude e devono verificare in modo indipendente le informazioni.

Un altro problema significativo con gli LLM è la loro vulnerabilità alle iniezioni tempestive. Gli hacker possono sfruttare questo difetto inserendo istruzioni dannose in siti Web, curriculum ed e-mail, che l’intelligenza artificiale segue con impazienza senza discernere tra istruzioni utente valide e contenuti non attendibili di terze parti. Queste vulnerabilità possono portare all’esfiltrazione di dati, all’esecuzione di codice dannoso e al furto di criptovaluta.

I critici hanno messo in dubbio l’efficacia degli avvertimenti di Microsoft, tracciando parallelismi con i consigli di lunga data dell’azienda contro l’uso delle macro nelle app di Office a causa dei rischi per la sicurezza. Nonostante questi avvertimenti, le macro sono rimaste un popolare vettore di attacco per gli hacker che prendono di mira le macchine Windows.

Sono state inoltre sollevate preoccupazioni circa la difficoltà, anche per gli utenti esperti, di rilevare attacchi di sfruttamento contro agenti di intelligenza artificiale. Alcuni esperti sostengono che l’unico modo per prevenire tali attacchi è evitare del tutto di navigare sul web.

Mentre Microsoft ha sottolineato che Copilot Actions è una funzionalità sperimentale disattivata per impostazione predefinita, i critici sottolineano che le precedenti funzionalità sperimentali, come Copilot, sono alla fine diventate funzionalità predefinite per tutti gli utenti. Ciò solleva interrogativi sull’accessibilità di queste funzionalità potenzialmente rischiose a una base di utenti più ampia nel tempo.

Microsoft ha delineato gli obiettivi per proteggere le funzionalità degli agenti in Windows, tra cui il non ripudio, la preservazione della riservatezza e la richiesta dell’approvazione dell’utente per l’accesso ai dati e le azioni. Tuttavia, l’efficacia di queste misure dipende in gran parte dall’attenta lettura e comprensione degli avvisi da parte degli utenti, cosa che potrebbe non sempre verificarsi nella pratica.

Leggi di più su Ars Technica qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.



Source link