
Conversar sobre ansiedade, solidão ou dificuldades na escola nem sempre é simples. Para muitos adolescentes, colocar em palavras o que sentem diante de um adulto é quase impossível. Mas quando a conversa acontece com uma inteligência artificial, a barreira parece desaparecer.
Um levantamento com mais de 250 mil mensagens trocadas entre estudantes e um chatbot de apoio emocional revelou que, independentemente da idade ou local, as preocupações eram praticamente as mesmas. E os adultos, em muitos casos, nem imaginavam que esses problemas existiam.
Por que isso é importante?
Essas conversas anônimas revelam dores ocultas, difíceis de serem percebidas em interações presenciais. Saber o que afeta de fato o bem-estar dos alunos permite que escolas e famílias intervenham mais cedo, prevenindo agravamentos e direcionando recursos com mais precisão.
No Brasil, a situação é ainda mais delicada: dados do Conselho Federal de Psicologia mostram que há redes públicas inteiras com apenas um orientador para centenas de estudantes. Em um cenário de equipes sobrecarregadas, a IA pode atuar como filtro inicial. Não substitui o cuidado humano, mas amplia o alcance e pode ajudar a evitar que sinais de risco passem despercebidos.
O que está em jogo
Equilibrar atividades extracurriculares e estudos foi a principal dificuldade relatada, seguida por problemas de sono e solidão. Também apareceram na lista conflitos interpessoais, falta de motivação, ansiedade em provas, dificuldade de foco, procrastinação, insegurança para pedir ajuda, dias ruins e notas baixas.
Menos de 1% citou diretamente as redes sociais, mas especialistas apontam que muito do bullying e das tensões entre colegas nasce ali. O dado mais revelador não é apenas o conteúdo das conversas, mas o fato de que os próprios estudantes reconhecem suas dificuldades e, mesmo assim, não compartilham com adultos próximos.
A IA surge como espaço seguro para essa primeira fala. O anonimato e a ausência de julgamento reduzem o medo de não serem levados a sério. Em 2% das conversas, o nível de risco foi classificado como alto; dessas, 38% envolveram ideação suicida. Muitas dessas situações não eram conhecidas pela escola.
Como responder a esse desafio
Especialistas alertam que a IA não deve substituir psicólogos ou orientadores. O uso responsável exige bots desenvolvidos com base científica, protocolos claros para situações de crise e supervisão constante. É preciso também garantir privacidade, limitar acesso a conteúdos nocivos e reforçar para os alunos que a IA é uma ferramenta, não uma pessoa.
Quando bem aplicada, essa tecnologia pode ajudar a encaminhar casos para o atendimento humano e até estimular a busca por ajuda presencial. No último ano letivo analisado, 41% dos alunos que interagiram com o chatbot decidiram compartilhar o resumo da conversa com um orientador, um aumento em relação ao ano anterior.
Se adolescentes já estão mais dispostos a confiar suas angústias a uma máquina do que a um adulto, talvez a pergunta não seja se a escola deve usar IA, mas por que tantos alunos não encontram espaço humano para serem ouvidos.
O que você precisa saber
Estudantes falam mais sobre suas preocupações com IA do que com adultos próximos;
Equilíbrio entre estudos e vida pessoal, sono e solidão são as maiores dificuldades;
Menos de 1% cita redes sociais diretamente, mas elas estão no pano de fundo de muitos conflitos;
2% das conversas são de alto risco; 38% dessas incluem ideação suicida;
Chatbots não substituem atendimento humano, mas podem ajudar na triagem;
Uso seguro exige base científica, protocolos claros e supervisão;
Conversas com IA podem estimular a busca por apoio presencial.