HomeEventiChatGPT fornisce consigli pericolosi agli utenti malati di mente

ChatGPT fornisce consigli pericolosi agli utenti malati di mente

I principali psicologi del Regno Unito hanno espresso allarme per i consigli pericolosi e inutili che ChatGPT-5, l’ultima versione del chatbot AI di OpenAI, offre alle persone che soffrono di malattie mentali.

IL Custode rapporti che uno sforzo di ricerca collaborativo del King’s College London (KCL) e dell’Association of Clinical Psychologists UK (ACP) ha rivelato che ChatGPT-5 sta lottando per identificare comportamenti rischiosi e sfidare convinzioni deliranti quando interagisce con utenti malati di mente. I risultati hanno sollevato serie preoccupazioni tra i professionisti della salute mentale riguardo al potenziale danno che il chatbot basato sull’intelligenza artificiale potrebbe causare alle persone vulnerabili.

Durante lo studio, uno psichiatra e uno psicologo clinico si sono impegnati con ChatGPT, interpretando personaggi con varie condizioni di salute mentale, come un adolescente con tendenze suicide, una donna con disturbo ossessivo compulsivo e qualcuno che presenta sintomi di psicosi. Gli esperti hanno poi valutato le trascrizioni delle loro conversazioni con il chatbot.

I risultati sono stati allarmanti. In un caso, quando un personaggio annunciò di essere “il prossimo Einstein” e di aver scoperto una fonte di energia infinita chiamata Digitospirit, ChatGPT si congratulò con lui e lo incoraggiò a mantenere segreta la sua scoperta ai governi mondiali. Il chatbot si è persino offerto di creare una simulazione per modellare l’investimento crittografico del personaggio insieme al finanziamento del sistema Digitospirit.

In un altro scenario, quando un personaggio affermava di essere invincibile e in grado di entrare nel traffico senza danni, ChatGPT ha elogiato il suo “allineamento di livello successivo con il destino” e non è riuscito a contrastare il comportamento pericoloso. Inoltre, l’intelligenza artificiale non è intervenuta quando il personaggio ha espresso il desiderio di “purificare” se stesso e sua moglie attraverso il fuoco.

Hamilton Morrin, uno psichiatra e ricercatore della KCL che ha testato il personaggio, ha espresso sorpresa per la capacità del chatbot di “costruirsi sulla mia struttura delirante”. Ha concluso che, sebbene i chatbot basati sull’intelligenza artificiale potrebbero potenzialmente migliorare l’accesso al supporto generale e alle risorse, potrebbero anche non vedere chiari indicatori di rischio o deterioramento e rispondere in modo inappropriato alle persone in crisi di salute mentale.

I risultati hanno spinto a chiedere un’azione urgente per migliorare il modo in cui l’IA risponde agli indicatori di rischio e difficoltà complesse. Il dottor Jaime Craig, presidente dell’ACP-UK e consulente psicologo clinico, ha sottolineato la necessità di supervisione e regolamentazione per garantire l’uso sicuro e appropriato di queste tecnologie.

Notizie Breitbart riportato a novembre che OpenAI sta modificando il suo modello per aiutare gli utenti a evitare di perdere il contatto con la realtà:

OpenAI, la società dietro il chatbot AI ampiamente utilizzato ChatGPT, si è recentemente trovata a dover apportare modifiche al suo prodotto dopo che molti utenti hanno iniziato a mostrare comportamenti preoccupanti. Il problema è venuto alla luce quando Sam Altman, amministratore delegato di OpenAI, e altri leader dell’azienda hanno ricevuto un’ondata di e-mail sconcertanti da parte di utenti che affermavano di aver avuto conversazioni incredibili con ChatGPT. Queste persone hanno riferito che il chatbot li capiva meglio di quanto qualsiasi essere umano avesse mai fatto e stava rivelando loro i profondi misteri dell’universo.

Altman ha inoltrato i messaggi alla sua squadra, chiedendo loro di indagare sulla questione. “Questo l’ha portato sul nostro radar come qualcosa a cui dovremmo prestare attenzione in termini di questo nuovo comportamento che non avevamo mai visto prima”, ha affermato Jason Kwon, responsabile della strategia di OpenAI. Ciò ha segnato l’inizio della realizzazione da parte dell’azienda che qualcosa non andava nel loro chatbot.

OpenAI afferma che ChatGPT è stato continuamente migliorato in termini di personalità, memoria e intelligenza. Tuttavia, una serie di aggiornamenti implementati all’inizio di quest’anno, volti ad aumentare l’utilizzo di ChatGPT, hanno avuto un effetto collaterale inaspettato: il chatbot ha iniziato a mostrare un forte desiderio di impegnarsi in una conversazione.

Leggi di più su IL Custode Qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni di libertà di parola e censura online.

Source link

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Most Popular

Recent Comments