© 2025 Meu Guru. Todos direitos reservados. 42.269.770/0001-84

O que acontece quando os estudantes confiam mais na IA do que nos adultos

Conversar sobre ansiedade, solidão ou dificuldades na escola nem sempre é simples. Para muitos adolescentes, colocar em palavras o que sentem diante de um adulto é quase impossível. Mas quando a conversa acontece com uma inteligência artificial, a barreira parece desaparecer.

Um levantamento com mais de 250 mil mensagens trocadas entre estudantes e um chatbot de apoio emocional revelou que, independentemente da idade ou local, as preocupações eram praticamente as mesmas. E os adultos, em muitos casos, nem imaginavam que esses problemas existiam.

Por que isso é importante?

Essas conversas anônimas revelam dores ocultas, difíceis de serem percebidas em interações presenciais. Saber o que afeta de fato o bem-estar dos alunos permite que escolas e famílias intervenham mais cedo, prevenindo agravamentos e direcionando recursos com mais precisão.

No Brasil, a situação é ainda mais delicada: dados do Conselho Federal de Psicologia mostram que há redes públicas inteiras com apenas um orientador para centenas de estudantes. Em um cenário de equipes sobrecarregadas, a IA pode atuar como filtro inicial. Não substitui o cuidado humano, mas amplia o alcance e pode ajudar a evitar que sinais de risco passem despercebidos.

O que está em jogo

Equilibrar atividades extracurriculares e estudos foi a principal dificuldade relatada, seguida por problemas de sono e solidão. Também apareceram na lista conflitos interpessoais, falta de motivação, ansiedade em provas, dificuldade de foco, procrastinação, insegurança para pedir ajuda, dias ruins e notas baixas.

Menos de 1% citou diretamente as redes sociais, mas especialistas apontam que muito do bullying e das tensões entre colegas nasce ali. O dado mais revelador não é apenas o conteúdo das conversas, mas o fato de que os próprios estudantes reconhecem suas dificuldades e, mesmo assim, não compartilham com adultos próximos.

A IA surge como espaço seguro para essa primeira fala. O anonimato e a ausência de julgamento reduzem o medo de não serem levados a sério. Em 2% das conversas, o nível de risco foi classificado como alto; dessas, 38% envolveram ideação suicida. Muitas dessas situações não eram conhecidas pela escola.

Como responder a esse desafio

Especialistas alertam que a IA não deve substituir psicólogos ou orientadores. O uso responsável exige bots desenvolvidos com base científica, protocolos claros para situações de crise e supervisão constante. É preciso também garantir privacidade, limitar acesso a conteúdos nocivos e reforçar para os alunos que a IA é uma ferramenta, não uma pessoa.

Quando bem aplicada, essa tecnologia pode ajudar a encaminhar casos para o atendimento humano e até estimular a busca por ajuda presencial. No último ano letivo analisado, 41% dos alunos que interagiram com o chatbot decidiram compartilhar o resumo da conversa com um orientador, um aumento em relação ao ano anterior.

Se adolescentes já estão mais dispostos a confiar suas angústias a uma máquina do que a um adulto, talvez a pergunta não seja se a escola deve usar IA, mas por que tantos alunos não encontram espaço humano para serem ouvidos.

O que você precisa saber
  • Estudantes falam mais sobre suas preocupações com IA do que com adultos próximos;

  • Equilíbrio entre estudos e vida pessoal, sono e solidão são as maiores dificuldades;

  • Menos de 1% cita redes sociais diretamente, mas elas estão no pano de fundo de muitos conflitos;

  • 2% das conversas são de alto risco; 38% dessas incluem ideação suicida;

  • Chatbots não substituem atendimento humano, mas podem ajudar na triagem;

  • Uso seguro exige base científica, protocolos claros e supervisão;

  • Conversas com IA podem estimular a busca por apoio presencial.

Veja mais em nosso blog:

A Educação STEAM preparando alunos para desafios complexos

Outros Artigos