Nos últimos anos, a tecnologia tem se infiltrado em diversas áreas de nossas vidas, incluindo a saúde mental. Um estudo recente revelou que 1 em cada 10 brasileiros recorre a chatbots para terapia, levantando questões importantes sobre os riscos dessa prática.
A ascensão dos chatbots “terapêuticos”
Os chatbots, programas de inteligência artificial projetados para interagir com humanos de maneira conversacional, têm se tornado uma alternativa popular para aqueles que buscam apoio emocional. A pesquisa, conduzida pela Talk Inc, entrevistou 1.000 brasileiros e descobriu que muitos utilizam esses bots para desabafar, buscar conselhos ou simplesmente conversar.
Por que tanta popularidade?
Os chatbots e aplicativos de IA prometem fornecer suporte emocional e terapêutico 24 horas por dia, sem necessidade de deslocamento, e muitos deles ainda são gratuitos. Esses atributos podem chamar a atenção de quem não tem condições de arcar com um tratamento psicológico, por exemplo. Além disso, a introspecção, a escassez de amigos disponíveis e a solidão também são pontos que fazem alguns considerarem a psicoterapia por IA como uma opção.
A sócia e fundadora da Talk Inc, Carla Mayumi, destaca que essa tendência reflete um problema maior: o aumento alarmante da solidão na sociedade contemporânea. No Brasil, tanto pessoas que vivem sozinhas quanto aquelas que, apesar de cercadas por familiares, têm pouco tempo para interações significativas, recorrem a esses chats em busca de conforto.
A conexão emocional com a IA
Um aspecto intrigante revelado pelo estudo é o nível de apego emocional que os usuários desenvolvem com os chatbots. Cerca de 60% dos participantes tratam as IAs como se fossem interlocutores humanos, iniciando conversas com saudações e terminando com agradecimentos, por exemplo.
Esse comportamento levanta preocupações sobre a dependência emocional na tecnologia, em que os usuários começam a confiar mais na IA do que em interações humanas reais.
Riscos e preocupações
Não só especialistas da área, mas a própria Organização Mundial da Saúde (OMS) alertam sobre os riscos de orientações incorretas, violação de dados pessoais e disseminação de desinformação, por parte dos aplicativos de Inteligência Artificial.
Além disso, a OpenAI, empresa criadora do ChatGPT, também expressou preocupação com a possibilidade de que usuários comecem a depender excessivamente da IA como companhia, especialmente com a introdução de modos de voz que imitam a sonoridade humana. Tina Brand, cofundadora da Talk Inc, comentou ainda sobre o fenômeno do “afeto artificial”, pois já existem relatos de “namoros” e até “casamentos” com tecnologias.
Embora possa parecer que a terapia com chatbots oferece vantagens, como disponibilidade 24 horas e ausência de “julgamentos”, é crucial entender que eles não substituem o tratamento psicológico com um profissional especializado e pode ser bastante perigosa.
Como distinguir uma conversa com humano ou IA?
Distinguir uma conversa com um humano de uma com uma IA pode ser desafiador, mas existem algumas dicas que podem ajudar a perceber a diferença:
- Perguntas Complexas: As IAs tendem a ter dificuldades com perguntas complexas que exigem uma compreensão profunda do contexto emocional e nuances culturais. Enquanto uma IA pode fornecer respostas baseadas em padrões e dados, ela pode tropeçar quando confrontada com questões que envolvem sutilezas emocionais ou contexto histórico específico. Perguntas que exigem reflexões mais profundas ou opiniões pessoais costumam revelar sua natureza automatizada, uma vez que sua capacidade de “improviso” ainda é limitada.
- Empatia e Intuição: Humanos são capazes de mostrar empatia genuína e intuição, qualidades que as IAs ainda não conseguem replicar completamente. A empatia envolve entender e compartilhar os sentimentos do outro, enquanto a intuição é a habilidade de perceber e reagir a pistas sutis, sem necessidade de explicação explícita. Nas conversas, essa capacidade se manifesta em respostas que reconhecem emoções e oferecem suporte emocional adequado, algo que as IAs, mesmo com algoritmos avançados, ainda estão longe de alcançar com a mesma profundidade.
- Erros e inconsistências: Quando confrontadas com contradições ou erros sutis nas informações fornecidas, as IAs podem se confundir e fornecer respostas inconsistentes, enquanto humanos geralmente são mais coerentes em expressar ideias e desenvolver um raciocínio.
Reflexões Finais
Ao passo que a Inteligência artificial parece oferecer uma solução acessível e imediata para a solidão e a necessidade de apoio emocional, ela pode agravar a desconexão social e a dependência emocional de tecnologias. É importante entender os perigos desse tipo de “terapia” e o fato de que eles não substituem o tratamento psicológico com um profissional especializado.