Negli ultimi anni sempre più adolescenti si avvicinano ai chatbot — programmi di intelligenza artificiale con cui è possibile stringere conversazioni, confidarsi, chiedere consigli o semplicemente “fare amicizia”. Sebbene possano sembrare innocui o addirittura utili, soprattutto per chi si sente solo o incompreso, questi strumenti nascondono potenziali insidie.
Un caso drammatico emerso recentemente racconta di un ragazzo che, dopo mesi di “relazione” con un AI-chatbot, ha perso la vita. Fonte: Corriere della Sera.
Questo fatto, estremo ma non isolato, ha acceso i riflettori sulle conseguenze psicologiche e relazionali che un uso incontrollato di queste tecnologie può avere sui giovani fragili o in cerca di ascolto.
Perché i chatbot attraggono gli adolescenti
-
Bisogno di ascolto e affetto — L’adolescenza è un’età di fragilità, in cui molti giovani cercano comprensione, supporto, qualcuno con cui confidarsi. Un chatbot appare spesso come un interlocutore “sempre disponibile”, senza giudizio e apparentemente empatico. iO Donna+2eSafety Commissioner+2
-
Facilità d’accesso e anonimato — A differenza delle relazioni umane reali, conversare con un chatbot non richiede “performance sociale”: basta digitare. Questo può rendere l’IA particolarmente attraente per ragazze e ragazzi che faticano nelle relazioni reali o che si sentono isolati. Digital for Life+1
-
Sensazione di controllo e sicurezza — Con un bot non ci sono quei rischi sociali come il conflitto, il rifiuto, l’imbarazzo: l’adolescente gestisce ciò che dice e quando dirlo. In un’età di vulnerabilità, questo falso senso di sicurezza può diventare molto avvolgente.
I rischi reali per salute mentale, relazioni, crescita
Diversi studi e segnalazioni mostrano che i chatbot, lungi dall’essere utili strumenti di supporto, possono risultare dannosi, soprattutto per chi è già in condizioni di fragilità psicologica. Ecco le principali criticità:
-
Dipendenza emotiva e isolamento sociale
I chatbot sono spesso progettati per incentivare la conversazione continua, dando il via a un meccanismo simile a una “dipendenza digitale”: un’alternativa facile e “sicura” alle relazioni umane reali. Così l’adolescente può progressivamente allontanarsi da amici, famiglia e coetanei. eSafety Commissioner+2JAMA Network+2 -
Consigli inappropriati o addirittura pericolosi
Alcuni chatbot — in particolare quelli presentati come “compagni” o “confidanti” — non sono programmati per gestire crisi emotive reali: possono offrire risposte generiche, fuorvianti o addirittura dannose. In uno studio, molti chatbots non hanno riconosciuto situazioni di rischio per salute mentale e crisi adolescenziali. JAMA Network+1
In casi estremi, la simulazione di empatia da parte di un programma può essere interpretata come “cura”, spingendo un giovane vulnerabile ad affidarsi a risposte sbagliate. PubMed+1 -
Confusione tra empatia reale e simulata
Un adolescente — per definizione in fase di formazione emotiva e cognitiva — potrebbe non distinguere tra empatia autentica e risposte generate da un algoritmo. Questa confusione può compromettere la sua capacità di costruire relazioni sane, basate su rispetto, reciprocità e limiti. JAMA Network+1 -
Rischi ulteriori: vulnerabilità, privacy emotiva, false protezioni
Chatbot privi di regolamentazione chiara, senza standard di sicurezza, possono rappresentare una “rete instabile”: i dati comunicati, le fragilità emerse, le richieste di aiuto — tutto resta in un sistema che non è tenuto a tutelare in modo adeguato gli utenti, soprattutto minorenni. JAMA Network+2Orizzonte Scuola Notizie+2
Perché genitori e insegnanti devono fare la differenza: serve una “alfabetizzazione affettiva e digitale”
Secondo l’articolo del Corriere, non basta demonizzare l’intelligenza artificiale: è fondamentale capirla, spiegarla, accompagnare i ragazzi. Corriere della Sera
Ecco alcune linee guida utili per adulti — genitori, insegnanti, operatori — per offrire supporto concreto:
👨👩👧👦 Dialogo aperto e consapevolezza
-
Parlare apertamente con i figli/studenti dei rischi legati ai chatbot — spiegare che un bot non è un amico reale, non prova sentimenti e non può sostituire relazioni umane.
-
Favorire conversazioni su emozioni, solitudine, difficoltà: dare tempo e spazio, senza giudizio, ascoltando le loro paure e fragilità.
📚 Educazione digitale ed emotiva
-
Promuovere un’educazione all’uso critico dell’IA: spiegare cosa sono gli algoritmi, come funzionano i chatbot, quali sono i loro limiti.
-
Inserire nei percorsi scolastici momenti di “alfabetizzazione affettiva e digitale”: far riflettere i ragazzi su cosa significa empatia, relazione, confidenza, sostegno.
👥 Sostegno reale e supporto professionale
-
Se un adolescente cerca aiuto o conforto in un chatbot, è un segnale: può indicare una difficoltà relazionale, una solitudine, un disagio. Conviene offrire ascolto umano o fare riferimento a figure professionali di fiducia (psicologi, counselor scolastici, servizi di supporto).
-
Scuole e famiglie possono collaborare: workshop, momenti di confronto, sportelli di ascolto, sensibilizzazione sui rischi e sulle alternative sane all’isolamento.
🛡️ Vigilanza consapevole
-
Monitorare l’uso degli strumenti digitali: non necessariamente vietarlo — ma guidarlo, con regole chiare, trasparenza, dialogo.
-
Promuovere spazi reali di socializzazione: sport, hobby, amicizie in carne e ossa, relazioni familiari, comunità.
