Home Lifestyle Non chiedere ad Alexa consigli per la pulizia a meno che tu...

Non chiedere ad Alexa consigli per la pulizia a meno che tu non voglia rischiare una reazione letale

16
0

Se stai cercando di rimuovere un po’ di muffa dalla lavatrice, potresti voler evitare di seguire i consigli di Alexa.

L’assistente vocale di Amazon non è necessariamente noto per fornire informazioni pericolose, ma la sua registrazione non è nemmeno priva di macchie.

Il logo di Amazon Alexa su un'immagine sfocata.

Amazon Alexa lancia a una bambina di 10 anni una sfida incredibilmente inappropriata

Non preoccuparti, il ragazzo sta bene

Alla fine del 2021, Alexa ha fornito a un bambino di 10 anni un canale “incredibilmente” pericoloso. Diceva al bambino di “collegare il caricabatterie del telefono a circa metà di una presa a muro, quindi toccare un centesimo sui poli esposti”. L’azienda ha prontamente corretto l’errore.

Ora, quasi cinque anni dopo, Alexa è di nuovo sotto accusa, ed è per aver dato consigli altrettanto imprudenti (via TechIssuesToday).

Secondo un post Reddit condiviso dall’utente stanco_time sul subreddit r/alexa, quando le è stato chiesto come pulire la muffa nera da una lavatrice, Alexa ha suggerito di usare “aceto bianco, candeggina, bicarbonato di sodio e detersivo per i piatti”.

Per chi non lo sapesse, la candeggina per la pulizia della casa è composta da ipoclorito di sodio diluito in acqua. L’aceto, d’altra parte, è la forma diluita dell’acido acetico.

L’addetto alle pulizie occasionale potrebbe non trovare nulla di sbagliato in questo elenco e iniziare a mescolare gli ingredienti. L’ipoclorito di sodio, se miscelato con acido acetico, dà come risultato rilascio di gas di cloro potenzialmente letale.

Alexa ha citato tipsbulletin.com come fonte delle informazioni. L’ironia è che la fonte ha effettivamente elencato le informazioni corrette, Alexa le ha semplicemente riformulate in un modo che le rende pericolose. “Usa aceto bianco, detersivo per i piatti, candeggina o bicarbonato di sodio per mantenere igienico il sigillo della porta”, ha scritto tipsbulletin. Alexa lo ha cambiato in “aceto bianco, candeggina, bicarbonato di sodio e detersivo per i piatti”.

La differenza sta nell’uso di “o” rispetto a “e”. Individualmente, questi ingredienti sono sicuri da usare, quindi “o” funziona. Il potenziale pericolo si presenta solo quando detti ingredienti vengono mescolati, ed è per questo che utilizzare “e” nell’elenco degli ingredienti non funziona.

Questa non è la prima volta che vediamo strumenti moderni basati sull’intelligenza artificiale fornire informazioni false (e pericolose). Il classico di Google Fiasco della colla per pizza ha lasciato l’amaro in bocca agli utenti, nessun gioco di parole, con la reputazione di AI Overviews ancora un po’ rovinata a causa dell’incidente.

Una visualizzazione dell'esperienza di ricerca generativa di Google

L’intelligenza artificiale di Google ha creato scalpore, poi ha imparato a consigliare nuovamente la colla dalla copertura successiva

Google non sembra sfuggire al fiasco della colla per pizza

LEAVE A REPLY

Please enter your comment!
Please enter your name here