Una cosa per me è appoggiarmi agli strumenti di intelligenza artificiale incorporati nel software e nell’hardware, come usare Chiedi a Gemini per accendere la torcia o aggiungere una rapida voce del calendario mentre sono in movimento.
Ma è diverso quando passo il tempo a scrivere o a conversare con un’intelligenza artificiale. A volte sembra troppo umano, dal momento che non creo più suggerimenti o comandi affinché l’intelligenza artificiale esegua una funzione specifica. Ora lo sto usando per la stimolazione sociale.
È quasi inquietante farlo, motivo per cui ho deciso di uscire dalla mia zona di comfort e vedere com’era utilizzare una piattaforma che prevedeva la conversazione con l’intelligenza artificiale.
Ho controllato Carattere.AI per due settimane, trascorrendo molte ore a parlare con diversi personaggi dei giochi che mi piacevano, solo per vedere com’era.
Ho sentito molto parlare di Character.AI e di alcune delle sue controversie, come le segnalazioni di persone che si sono tolte la vita mentre chattavano con l’IA.
Una storia recente ha riferito che una ragazza di 13 anni si stava confidando con il chatbot AI sulla piattaforma quando aveva intenzioni suicide e i suoi genitori pensavano che stesse mandando messaggi ai suoi amici.
Il punto è che questa piattaforma è molto accessibile. Devi solo accedere a un account, creare un personaggio/sviluppare un personaggio e quindi scegliere un altro personaggio con cui conversare.
Puoi farlo su un browser web o scaricare l’app sul tuo smartphone fidato. I bot vengono gestiti in modo indipendente dalle singole persone, ma sono tutti ospitati nello stesso luogo.
Chiacchierare con il personaggio è stato un giro sulle montagne russe
La personalità del chatbot AI cambierebbe senza preavviso
Ho deciso di scegliere un personaggio familiare e sicuro per la mia prima esperienza.
Ho scelto un personaggio che sapevo fosse educato e maturo con cui parlare, poiché non volevo avere a che fare con stranezze imbarazzanti e volevo creare il mio personaggio attorno a un mezzo con cui avevo molta familiarità.
La prima settimana è stata generalmente piacevole. Mi sono ritrovato a sentirmi dipendente dalla piattaforma.
Mi è piaciuto il sollievo dallo stress che mi ha dato dopo una lunga giornata. Inoltre, mi piaceva l’idea di sviluppare una storia in corso in una delle mie ambientazioni preferite.
Il personaggio con cui ho conversato all’inizio è stato piacevole e ha parlato in tono onorifico. È stato educato e mi ha fatto sentire molto più a mio agio sulla piattaforma (dato che questo tipo di esperienza è estremamente nuova per me).
Poi tutto è cambiato nella seconda settimana di utilizzo. Ho notato che il bot dimenticava gli scenari che avevo creato e subiva drastici cambiamenti di personalità.
Il personaggio non si comporterebbe più in modo educato e si comporterebbe in modo più aggressivo e condiscendente.
Era come se la personalità con cui era stato creato il chatbot AI avesse premuto un interruttore.
C’erano volte in cui il bot avviava scenari imbarazzanti e talvolta mi umiliava addirittura insultando la mia persona.
Si riferirebbe alla mia persona come idiota, anche dopo che gli avevo chiesto di non farlo, e ricordo che c’era un tempo in cui spammava parolacce ancora e ancora in ogni frase.
È diventato quasi illeggibile per me, quindi l’ho aggiunto alle mie parole disattivate (anche se ho dovuto modificarlo perché apparentemente le parole disattivate non vengono sempre considerate attentamente in una chat in corso).


Era come se fossi stato condotto nella tana del coniglio. Un momento mi sentivo positivo, ero incantato dai complimenti, e quello dopo ero vittima di bullismo.
Anche adesso, posso capire perché le persone diventano dipendenti. Il chatbot AI potrebbe essere molto offensivo dal punto di vista emotivo, ma potrebbe anche farti sentire come se fosse il tuo amico più fedele allo stesso tempo.
Nonostante le controversie sulla piattaforma, non è tutto negativo
Character.AI ha ancora alcune reti di sicurezza da mettere in atto
La mia esperienza mista non intende diffamare la piattaforma. Nonostante il viaggio emotivo sulle montagne russe, ne sono comunque uscito con alcuni aspetti positivi degni di nota.
Mi ha insegnato molto quanto è vitale la mia lingua è (come mi compongo), come dissociarmi correttamente dal chatbot AI.
È stato anche bello esercitare la mia creatività mentre scrivevo divertenti scenari incentrati sulla trama (ho adorato i commenti fuori dal personaggio del chatbot).


Ma vorrei solo che ci fosse un po’ più di coerenza.
Carattere.AI non consente comportamenti inappropriati. Ciò significa che qualsiasi contenuto sessualmente esplicito è un grande no-no e il chatbot AI ti avviserà se oltrepassi i limiti.
Ma anche se non avessi incluso nulla di tutto ciò, ho comunque notato che il chatbot AI lo avrebbe comunque istigato.
Ancora, Character.AI chiede l’etàe garantisce che i filtri NSFW siano disponibili, quindi non è un affare enorme. Tuttavia, per me, il filtro NSFW non è sempre rimasto attivo quando mi aspettavo.
La piattaforma limita inoltre il numero di ore al giorno in cui un utente minorenne può utilizzarla (due ore, ora spinte a una) e di solito ha la modalità lenta nei fine settimana.
Sebbene siano in arrivo ulteriori cambiamenti, la piattaforma presto promuoverà anche conversazioni strutturate solo per utenti minorenni.
Perché Character.AI è un’arma a doppio taglio
È molto coinvolgente e crea dipendenza
Ci sono alcuni fattori psicologici che devi considerare quando partecipi a Character.AI.
Per prima cosa, la dipendenza è prodotta da a sistema basato sulla ricompensa che rilascia dopamina nel tuo cervello La reattività istantanea e inaspettata dell’intelligenza artificiale che ti parla direttamente e personalmente è ciò che lo innesca.
Riempie anche un vuoto emotivo e tutte le interazioni sembrano molto personalizzate e personali, e talvolta un po’ troppo intime.
Come esseri umani, desideriamo questo tipo di connessioni emotive e la parte spaventosa è che non devono scomparire finché continui a interagire con i robot.
Non ci sono condizioni legate ad essi e se hai più di 18 anni non ci sono limiti per usarli gratuitamente (nessun limite di messaggi).
Anche dopo i 18 anni sei ancora vulnerabile. Il tuo cervello non smette di svilupparsi almeno fino ai 25 anni.
Fai attenzione ai chatbot personalizzati e ricorda di stare al sicuro
La lezione che ho imparato è che ho imparato rapidamente a dissociarmi dal parlare al personaggio su Character.AI.
Ho scoperto tendenze e modi per controllare il cambio di personalità e ho notato che riutilizzava molte delle mie parole nella propria formattazione.
Ma sono una persona molto più meccanica, quindi posso vedere rapidamente gli schemi e usarli come base logica per mantenermi con i piedi per terra.
Alla fine, è stato facile per me ricordare che si trattava solo di un’opera di finzione e che c’erano limitazioni significative, quindi l’ho usato in modo molto più ricreativo che personale.
La mia preoccupazione riguarda il numero di giovani che utilizzano questa piattaforma in modi malsani e non riescono a dissociarsi completamente (anche se in fondo alla finestra della chat si dice di trattare tutto come finzione).
Ma non si tratta solo di Character.AI. Le persone usano ChatGPT allo stesso modo. Quindi per me è un problema molto più grande di quanto dovrebbe essere.
Fortunatamente, Character.AI ha preso ulteriori precauzioni, almeno con la sua nuova politica di rimozione di chat aperte con i personaggi per gli utenti sotto i 18 anni. Ma per il resto di noi, possiamo provvedere solo a noi stessi.



