top of page

O divã na tela

  • Ana Carolina Henriques e Geovana Pessôa
  • 8 de out. de 2025
  • 7 min de leitura

Atualizado: 12 de nov. de 2025

Ferramentas digitais ganham espaço ao oferecer apoio emocional acessível, mas levantam dilemas éticos sobre eficácia e privacidade.


Foto: reprodução/Freepik.


Nos últimos anos, o uso da inteligência artificial tem aumentado significativamente. Mas o que era para ser apenas uma ferramenta de automação começou a ocupar espaços inusitados. Aplicativos como ChatGPT, Gemini e DeepSeek se popularizaram, desempenhando, até mesmo, a função de “terapeutas virtuais”.


Segundo um estudo deste ano feito pela Sentio University, 48,7% dos usuários de IA que reportam problemas de saúde mental usam o ChatGPT como terapeuta. Mas até que ponto esse uso é seguro e eficaz?


A disponibilidade imediata e ilimitada


Dentre os inúmeros atrativos que a inteligência artificial oferece, destaca-se a disponibilidade imediata e ilimitada. Diferentemente de um terapeuta humano, a ferramenta está acessível 24 horas por dia, sem custos e sem necessidade de agendamento. Essas ferramentas conseguem ampliar o acesso à saúde mental.


Em muitos países, e também no Brasil, o número de psicólogos e psiquiatras não é suficiente para atender à demanda, especialmente em cidades pequenas. Dados divulgados pelo Instituto Brasileiro de Geografia e Estatística (IBGE) em 2023 revelam que 46% dos municípios brasileiros possuem políticas ou programas de atendimento a pessoas com transtornos mentais. A inteligência artificial, nesse caso, surge como um recurso que é economicamente bom e eficiente ao usuário.


O que a tecnologia já consegue fazer


Essas inteligências artificiais funcionam a partir de sistemas de linguagem natural, capazes de identificar palavras-chave e emoções nas falas ou mensagens. A partir daí, produzem respostas que soam acolhedoras, sugerem reflexões ou indicam atividades práticas.


Alguns aplicativos já vão além do texto. Há os que interpretam variações no tom de voz, percebem padrões de digitação ou se conectam a pulseiras inteligentes que monitoram batimentos cardíacos e qualidade do sono. Combinando esses dados, a máquina sugere intervenções rápidas, como exercícios de relaxamento em momentos de estresse.


Apesar de soarem sofisticados, esses recursos ainda operam em níveis limitados. A IA não compreende sentimentos como um ser humano, mas reproduz padrões reconhecidos em bancos de dados de conversas. A experiência pode parecer convincente, mas não significa compreensão real.


Outro problema central é a privacidade. Para que a IA funcione, ela precisa registrar informações pessoais, muitas vezes altamente sensíveis: medos, inseguranças, traumas, histórico familiar. O destino e o uso desses dados nem sempre são claros. Em agosto de 2025, usuários do ChatGPT tiveram suas conversas vazadas e exibidas no Google. Aproximadamente, 4.500 links apareciam no buscador, entre conversas sobre conteúdo sexual e até segredos de empresas. A ausência de regulamentação específica deixa usuários vulneráveis a serem manipulados por essas ferramentas, expondo os segredos e as falhas dessas tecnologias no cotidiano.


As limitações que preocupam


Se por um lado a tecnologia amplia o acesso, por outro traz riscos evidentes. Nenhum sistema artificial é capaz de trocar a relação construída entre terapeuta e paciente. Situações de crise, como pensamentos suicidas, luto profundo ou violência doméstica, exigem intervenção de um profissional qualificado.


Falhas já foram registradas em diferentes contextos, quando respostas automáticas se mostraram inadequadas ou perigosas. Há casos de usuários que, ao relatarem sofrimento intenso, receberam mensagens genéricas de incentivo em vez de orientação para procurar ajuda emergencial.


Em entrevista à CNN americana, Megan Garcia, mãe estadunidense e moradora da Flórida, afirma que a plataforma de inteligência artificial Character.ai teve papel no suicídio de seu filho de 14 anos, Sewell Setzer III, ocorrido em fevereiro de 2024. O adolescente conversava há meses com um chatbot que simulava a personagem Daenerys Targaryen, da série Game of Thrones. Nas interações, o jovem relatava tristeza e pensamentos de automutilação, e o robô chegou a perguntar se ele “já tinha um plano para se matar”, sem oferecer qualquer alerta ou orientação para buscar ajuda.


Garcia encontrou conversas com teor sexual explícito e um nível de realismo que considera perturbador. Após a tragédia, ela denunciou a empresa, que lamentou o ocorrido, mas não comentou o caso por estar na Justiça.


Nessas situações, a sensação de acolhimento pode ser rapidamente modificada para frustração ou, no caso do jovem, agravamento do quadro emocional levando ao suicídio.


O olhar da Psicologia


Entre profissionais de saúde mental, a visão predominante é de cautela. Há reconhecimento de que a IA pode desempenhar papel complementar, funcionando como apoio entre sessões presenciais, como ferramenta de triagem ou mesmo como incentivo inicial para que alguém busque ajuda profissional.


Mas há também receio de que a tecnologia seja vista como substituta. O risco está em reduzir problemas complexos a respostas simplificadas.


Em nota divulgada em julho deste ano, o Conselho Federal de Psicologia (CFP) afirmou que o uso da inteligência artificial em contextos terapêuticos não pode trocar a atuação de psicólogas e psicólogos. A entidade reforça que, embora essas ferramentas possam auxiliar em algumas tarefas, sua aplicação exige supervisão humana e não isenta os profissionais de suas responsabilidades éticas e técnicas. O CFP destaca que é fundamental avaliar riscos, vieses e limites das ferramentas digitais, garantindo consentimento informado e respeito à Lei Geral de Proteção de Dados Pessoais (LGPD).


Emoções não seguem uma lógica simples, e cada trajetória pessoal exige análise única. A empatia genuína, construída em uma relação terapêutica, permanece inalterada. Mais do que adotar ou rejeitar a IA, o Conselho defende integrá-la de forma responsável, sempre com foco na saúde mental, nos direitos humanos e na dignidade das pessoas.


O risco da diminuição das habilidades sociais


O uso frequente de inteligências artificiais voltadas para apoio emocional pode levar à redução das habilidades sociais. Ao interagir somente com máquinas, o usuário deixa de vivenciar aspectos essenciais das relações humanas, como pausas, discordâncias, expressões faciais e variações de voz. Essas situações, mesmo quando geram desconforto, são importantes para criar vínculos, desenvolver a capacidade de se colocar no lugar do outro e aprender a lidar com conflitos.


Os chatbots são programados para gerar respostas agradáveis ao usuário, portanto, quem desabafa com uma IA não se depara com nenhuma discordância ou responsabilização. O excesso de contato com sistemas artificiais tende a reforçar o isolamento e enfraquecer a construção de relações saudáveis na vida cotidiana.


No ano passado, a Organização Mundial da Saúde (OMS) publicou um guia de uso das plataformas de IA na saúde. O documento chama a atenção para o risco de que tais ferramentas produzam informações imprecisas ou falsas e salienta a necessidade de políticas regulamentadoras para o uso e desenvolvimento dessas plataformas.


Entre a expectativa e a incerteza 


Os chatbots e aplicativos de saúde mental refletem tanto as necessidades da sociedade atual quanto os limites da tecnologia. Em um mundo marcado por ansiedade crescente, solidão e sobrecarga, é natural que soluções digitais despertem interesse. No entanto, depositar expectativas excessivas em uma máquina pode ser arriscado.


O que se desenha, por enquanto, é um cenário entre humanos e máquinas compartilhando o cuidado, cada um em seu espaço. A inteligência artificial pode ser uma aliada disponível 24 horas, uma voz que escuta sem julgamento e oferece apoio imediato. Mas o encontro humano, com sua capacidade de empatia e compreensão profunda, continua sendo fundamental.


Dessa forma, a inteligência artificial como terapeuta coloca diante da sociedade novos desafios que compõem o cenário da inserção de novas tecnologias na contemporaneidade. Assim, cautelas devem ser tomadas com a ascensão dessas novas ferramentas, mas sem deixar de aproveitar o melhor que a tecnologia oferece sem abrir mão daquilo que nos torna essencialmente humanos.


A quem procurar?


Uma porta de entrada segura para buscar atendimento são os Centros de Atenção Psicossocial (Caps), presentes em todas as regiões do país. Ao todo, são 3.058 unidades especializadas na atenção à saúde mental, que oferecem suporte especializado por meio de uma equipe diversa composta por médicos, psicólogos, assistentes sociais, farmacêuticos e outros profissionais da saúde.


No Rio de Janeiro, esses serviços podem ser acessados em diversos bairros da cidade. Confira onde buscar apoio:


Centros de Atenção Psicossocial (CAPS)


  • Centro Psiquiátrico Rio de Janeiro (CPRJ):

    • Endereço: Praça Coronel Assunção, s/n – Saúde (Praça Mauá), Rio de Janeiro – RJ

    • Telefone: (21) 2332-568 (ou 2216-6534)

    • Observações: atende moradores dos bairros da AP1 (Centro, Fátima, Santo Cristo, Caju, Mangueira, São Cristóvão e proximidades). Necessário comprovante de residência.


  • CAPS II Clarice Lispector:

    • Endereço: Rua Dois de Fevereiro, 785A – Encantado, Rio de Janeiro – RJ

    • Telefone: (21) 3111-7490 / (21) 3111-7411


  • CAPS III Franco Basaglia:

    • Endereço: Avenida Venceslau Brás, 65, fundos – Botafogo, Rio de Janeiro – RJ

    • Telefone: (21) 2542-6761


  • CAPSad II Centro-Rio:

    • Endereço: Rua Dona Mariana, 151 – Botafogo, Rio de Janeiro – RJ

    • Telefone: (21) 2334-8109


  • CAPS II Lima Barreto:

    • Endereço: Av. Ribeiro Dantas, 571 – Bangu, Rio de Janeiro – RJ


  • CAPSi II Heitor Villa Lobos:

    • Endereço: Rua Honório, 461 – Todos os Santos, Rio de Janeiro – RJ (endereço pode variar, verificar o mais atual)

    • Telefone: (21) 3111-620 (ou 3111-7139)


Universidades que oferecem serviços semelhantes: 


  • Serviço de Psicologia Aplicada (SPA) da Universidade do Estado do Rio de Janeiro (UERJ):

    • Endereço: Rua São Francisco Xavier, 524 – 10° andar – Bloco D, Sala 10.006, Maracanã, Rio de Janeiro – RJ

    • Telefone: (21) 2334-0033 / (21) 2334-0688 / (21) 2334-0108

    • Observação: inscrições geralmente abertas mensalmente, exceto em períodos de férias ou greve.


  • Instituto de Psiquiatria (Ipub) da Universidade Federal do Rio de Janeiro (UFRJ):

    • Endereço: Av. Venceslau Brás, 71 Fundos – Botafogo, Rio de Janeiro – RJ

    • Telefone: (21) 3873-5536ou (21) 3938-5536

    • Observação: serviço gratuito.


  • Divisão de Psicologia Aplicada Prof.ª Isabel Adrados (DPA) – Instituto de Psicologia da UFRJ:

    • Endereço: Avenida Pasteur, 250 – Pavilhão Nilton Campos, Campus da Praia Vermelha, Rio de Janeiro – RJ, CEP 22290-240

    • Telefone: (21) 2295-8113


  • Serviço de Psicologia Aplicada (SPA) da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio):

    • Endereço: Rua Marquês de São Vicente, 225, Gávea, Rio de Janeiro – RJ, CEP 22453-900

    • Telefone: (21) 3527-1574 / (21) 3527-1575

    • WhatsApp: (21) 99328-2539

    • Inscrição no site (verificar se há ficha de inscrição on-line).

    • Observação: pode envolver uma taxa social.


  • Serviço de Psicologia Aplicada (SPA) da Universidade Veiga de Almeida (UVA):

    • Campus Tijuca: Rua Ibituruna, 108 Vila Universitária – Casa 04, Tijuca, Rio de Janeiro – RJ. Telefone: (21) 2574-8898

    • Campus Barra da Tijuca: Av. Ayrton Senna, 2001 Bloco 3 Sala 43 (ou Av. General Felicíssimo Cardoso, 500). Telefone: (21) 3326-1350 / (21) 3325-2333 (Ramal: 146 ou 147)


Publicado por Alexandre Augusto



Faculdade de Comunicação Social | Universidade do Estado do Rio de Janeiro (Uerj)

bottom of page