L'INTELLIGENZA ARTIFICIALE (AI)

Adolescenza e chatbot con AI: un pericolo silenzioso?

Negli ultimi anni sempre più adolescenti si avvicinano ai chatbot — programmi di intelligenza artificiale con cui è possibile stringere conversazioni, confidarsi, chiedere consigli o semplicemente “fare amicizia”. Sebbene possano sembrare innocui o addirittura utili, soprattutto per chi si sente solo o incompreso, questi strumenti nascondono potenziali insidie.

Un caso drammatico emerso recentemente racconta di un ragazzo che, dopo mesi di “relazione” con un AI-chatbot, ha perso la vita. Fonte: Corriere della Sera.
Questo fatto, estremo ma non isolato, ha acceso i riflettori sulle conseguenze psicologiche e relazionali che un uso incontrollato di queste tecnologie può avere sui giovani fragili o in cerca di ascolto.


Perché i chatbot attraggono gli adolescenti

  • Bisogno di ascolto e affetto — L’adolescenza è un’età di fragilità, in cui molti giovani cercano comprensione, supporto, qualcuno con cui confidarsi. Un chatbot appare spesso come un interlocutore “sempre disponibile”, senza giudizio e apparentemente empatico. iO Donna+2eSafety Commissioner+2

  • Facilità d’accesso e anonimato — A differenza delle relazioni umane reali, conversare con un chatbot non richiede “performance sociale”: basta digitare. Questo può rendere l’IA particolarmente attraente per ragazze e ragazzi che faticano nelle relazioni reali o che si sentono isolati. Digital for Life+1

  • Sensazione di controllo e sicurezza — Con un bot non ci sono quei rischi sociali come il conflitto, il rifiuto, l’imbarazzo: l’adolescente gestisce ciò che dice e quando dirlo. In un’età di vulnerabilità, questo falso senso di sicurezza può diventare molto avvolgente.


I rischi reali per salute mentale, relazioni, crescita

Diversi studi e segnalazioni mostrano che i chatbot, lungi dall’essere utili strumenti di supporto, possono risultare dannosi, soprattutto per chi è già in condizioni di fragilità psicologica. Ecco le principali criticità:

  • Dipendenza emotiva e isolamento sociale
    I chatbot sono spesso progettati per incentivare la conversazione continua, dando il via a un meccanismo simile a una “dipendenza digitale”: un’alternativa facile e “sicura” alle relazioni umane reali. Così l’adolescente può progressivamente allontanarsi da amici, famiglia e coetanei. eSafety Commissioner+2JAMA Network+2

  • Consigli inappropriati o addirittura pericolosi
    Alcuni chatbot — in particolare quelli presentati come “compagni” o “confidanti” — non sono programmati per gestire crisi emotive reali: possono offrire risposte generiche, fuorvianti o addirittura dannose. In uno studio, molti chatbots non hanno riconosciuto situazioni di rischio per salute mentale e crisi adolescenziali. JAMA Network+1
    In casi estremi, la simulazione di empatia da parte di un programma può essere interpretata come “cura”, spingendo un giovane vulnerabile ad affidarsi a risposte sbagliate. PubMed+1

  • Confusione tra empatia reale e simulata
    Un adolescente — per definizione in fase di formazione emotiva e cognitiva — potrebbe non distinguere tra empatia autentica e risposte generate da un algoritmo. Questa confusione può compromettere la sua capacità di costruire relazioni sane, basate su rispetto, reciprocità e limiti. JAMA Network+1

  • Rischi ulteriori: vulnerabilità, privacy emotiva, false protezioni
    Chatbot privi di regolamentazione chiara, senza standard di sicurezza, possono rappresentare una “rete instabile”: i dati comunicati, le fragilità emerse, le richieste di aiuto — tutto resta in un sistema che non è tenuto a tutelare in modo adeguato gli utenti, soprattutto minorenni. JAMA Network+2Orizzonte Scuola Notizie+2


Perché genitori e insegnanti devono fare la differenza: serve una “alfabetizzazione affettiva e digitale”

Secondo l’articolo del Corriere, non basta demonizzare l’intelligenza artificiale: è fondamentale capirla, spiegarla, accompagnare i ragazzi. Corriere della Sera

Ecco alcune linee guida utili per adulti — genitori, insegnanti, operatori — per offrire supporto concreto:

👨‍👩‍👧‍👦 Dialogo aperto e consapevolezza

  • Parlare apertamente con i figli/studenti dei rischi legati ai chatbot — spiegare che un bot non è un amico reale, non prova sentimenti e non può sostituire relazioni umane.

  • Favorire conversazioni su emozioni, solitudine, difficoltà: dare tempo e spazio, senza giudizio, ascoltando le loro paure e fragilità.

📚 Educazione digitale ed emotiva

  • Promuovere un’educazione all’uso critico dell’IA: spiegare cosa sono gli algoritmi, come funzionano i chatbot, quali sono i loro limiti.

  • Inserire nei percorsi scolastici momenti di “alfabetizzazione affettiva e digitale”: far riflettere i ragazzi su cosa significa empatia, relazione, confidenza, sostegno.

👥 Sostegno reale e supporto professionale

  • Se un adolescente cerca aiuto o conforto in un chatbot, è un segnale: può indicare una difficoltà relazionale, una solitudine, un disagio. Conviene offrire ascolto umano o fare riferimento a figure professionali di fiducia (psicologi, counselor scolastici, servizi di supporto).

  • Scuole e famiglie possono collaborare: workshop, momenti di confronto, sportelli di ascolto, sensibilizzazione sui rischi e sulle alternative sane all’isolamento.

🛡️ Vigilanza consapevole

  • Monitorare l’uso degli strumenti digitali: non necessariamente vietarlo — ma guidarlo, con regole chiare, trasparenza, dialogo.

  • Promuovere spazi reali di socializzazione: sport, hobby, amicizie in carne e ossa, relazioni familiari, comunità.