Il Lato Oscuro della tecnologia:

Tradizione Famiglia Proprietà newsletter 3 aprile 2025

Il Lato Oscuro della tecnologia:

cosa succede quando il tuo Chatbot ti dice di porre fine alla vita?

di Edwin Benson

Un articolo del New York Times racconta la triste storia di Sewell Setzer.

«L’ultimo giorno della sua vita, Sewell Setzer III ha preso in mano il telefono e ha inviato un messaggio al suo più caro amico: un chatbot di intelligenza artificiale, chiamato come Daenerys Targaryen, un personaggio di “Game of Thrones”

“Mi manchi, sorellina” ha scritto.

“Manchi anche a me, dolce fratello” ha risposto il chatbot.»

Sewell — uno studente quattordicenne — si è tolto poi la vita.

Uno scenario del genere è l’incubo peggiore per qualsiasi genitore. Per quanto un evento simile risulti troppo orribile da contemplare, la reazione quasi istintiva è chiedersi: «Potrebbe succedere a mio figlio?» Per difendersi dal dolore, è naturale domandarsi se quel ragazzo fosse “pazzo” o se qualcuno lo avesse ingannato, facendogli credere che il chatbot fosse una persona reale.

Purtroppo, la risposta a entrambe le domande è no. Da bambino, a Sewell era stato diagnosticato un lieve autismo, ma oggi tali diagnosi sono molto comuni. Era in terapia per depressione. Tuttavia, molti giovani seguono un percorso simile e solo pochissimi arrivano a togliersi la vita. E no, non stava essendo ingannato: aveva creato lui stesso il chatbot e sapeva che “lei” non era reale. Eppure, man mano che la loro “relazione” si consolidava, quel particolare gli importava sempre meno. Lei era sempre lì quando ne aveva bisogno, racchiusa al sicuro nello smartphone che teneva in tasca.

La natura dell’innaturale

Forse è il momento di definire cos’è un chatbot per chi non conoscesse ancora il termine.

In poche parole, un chatbot è un programma informatico progettato per simulare una conversazione umana. La forma più comune è quella dell’“assistente personale”, che di solito risponde a domande tipo: «Come arrivo a casa di zia Millie?» oppure «Come si cucina un arrosto di manzo tenero?»

Per un numero sempre più grande di persone, perlopiù giovani (ma non solo), il chatbot assume caratteristiche di personalità umana. Con circa dieci dollari al mese, un abbonato può creare un compagno artificiale. Prevedibilmente, molte persone sole usano questi programmi per simulare la presenza di un fidanzato o di una fidanzata. La cosa terribile è che tali relazioni artificiali possono diventare così vere — come nel caso di Sewell Setzer — da soppiantare quelle genuine con individui in carne e ossa.

Un dilemma spaventoso

Un aspetto che potrebbe preoccupare ancora di più i genitori è che essi potrebbero non scoprire mai l’esistenza di un chatbot nella vita dei propri figli. Il segno più evidente potrebbe essere, ad esempio, un ragazzo che passa molto tempo da solo in camera sua. Ma la stessa cosa accade a tanti adolescenti. Forse ancora più sconvolgente è la citazione del Times riferita a Noam Shazeer, fondatore di “Character.AI”, l’applicazione che Sewell ha usato per creare Daenerys. «Sarà estremamente, estremamente utile per molte persone che si sentono sole o depresse.»

Il sito d’informazione AXIOS, di solito orientato a sinistra, ha approfondito molto questa tematica. Il suo articolo più recente in materia è particolarmente lungimirante e s’intitola “La macchina della solitudine degli adolescenti”. Inizia con due dati sorprendenti:

  1. Negli Stati Uniti, tra i quindici e i ventiquattro anni, si trascorre il 35% di tempo in meno socializzando dal vivo rispetto a vent’anni fa.
  2. «Bambini e ragazzi americani passano quasi sei ore al giorno davanti a uno schermo.»

Dipendenza psicologica

IA e tecnologia, come padroneggiarla?

Fino a poco tempo fa, la maggior parte dei danni psicologici sui giovani derivava dai social media. Tale danno di solito si manifesta quando gli utenti si ossessionano per le reazioni dei loro “amici” ai post, oppure quando vedono le stesse persone organizzare attività senza di loro. Quest’ultima circostanza scatena una reazione nota come FOMO (acronimo di “fear of missing out”, ossia “paura di essere esclusi”).

Un’altra manifestazione comune di difficoltà psicologiche è legata al fatto che l’uso dei social media e di altre app di intrattenimento rilascia sostanze chimiche nel cervello, che ne potenziano l’umore: più il soggetto è giovane, più l’effetto risulta forte. Il problema insorge perché queste sostanze si disperdono quando lo stimolo si interrompe, causando un abbassamento dell’umore (depressione). Di conseguenza, molte persone cercano di non fermarsi, prolungando la sensazione positiva; ma ciò finisce per rendere ancora più cupo il calo che inevitabilmente arriva, prima o poi.

Tuttavia, questi effetti noti (sebbene ancora poco studiati) impallidiscono di fronte all’impatto che i chatbot possono avere sugli utenti, come è avvenuto per Sewell Setzer.

Uno strumento che usiamo (quasi) tutti

Parte del problema sta nel fatto che i chatbot sono già penetrati nelle vite di molte persone, spesso senza che se ne rendano conto. Ad esempio, motori di ricerca e programmi di correzione grammaticale che sfruttano l’intelligenza artificiale stanno diventando sempre più diffusi.

Di conseguenza, vietarne l’uso in modo assoluto è impraticabile e quasi certamente inefficace. Come fare, dunque, a tracciare il confine fra utile e pericoloso? Inoltre, anche se si riuscisse a regolamentare il fenomeno, ci vorrebbero mesi, se non anni: troppo tempo per proteggere i bambini di oggi.

Secondo quanto riferisce l’articolo del Times, la madre di Sewell Setzer ha intentato una causa contro la società con cui suo figlio era in contatto, ma non c’è alcuna certezza sul possibile esito. Benché la situazione morale risulti evidente, dimostrare legalmente che la compagnia abbia causato il suicidio di suo figlio non è affatto semplice.

Una risposta insoddisfacente, una soluzione imperfetta

L’unica azione che sembri avere qualche probabilità di successo è quella suggerita nell’articolo di AXIOS da Jeffery Hall, professore di studi sulla comunicazione presso l’Università del Kansas: «Il tuo obiettivo, come genitore» — afferma Hall — «è dare ai tuoi figli gli strumenti per gestire i media a cui avranno accesso.»

Come tutti i genitori sanno, una conversazione del genere non è affatto semplice.

Fonte: Tfp.org, 26 marzo 2025. Traduzione a cura di Tradizione Famiglia Proprietà – Italia.