
Vivemos num tempo em que a Inteligência Artificial já responde às nossas dúvidas médicas, organiza as nossas agendas, escreve textos e até simula conversas emocionais.
E, inevitavelmente, começou também a ocupar um novo território: o da saúde mental.
Existem hoje aplicações e plataformas que prometem “terapia com IA”, apoio emocional 24 horas por dia e conversas que simulam a empatia humana.
Mas será isto efetivamente terapia?
E, sobretudo: quais são os riscos de substituir um processo terapêutico humano por um sistema algorítmico?
Este é um tema que merece uma reflexão cuidadosa.
Quando a conversa parece cuidado
Imagine o seguinte cenário – se calhar, até já lhe aconteceu:
São duas da manhã. A casa está quieta. O telemóvel está na mesa de cabeceira. E a sua mente, essa, continua acordada.
Há qualquer coisa que a incomoda – uma discussão que ficou por resolver, uma decisão adiada, ou uma tristeza que insiste em não passar. É então que o impulso surge quase automaticamente: pega no telemóvel, abre uma aplicação e escreve.

A resposta chega em segundos.
É organizada. É clara. Não aparenta crítica. Não nos interrompe. Não se cansa. Não questiona demasiado.
E isto traz-lhe uma sensação imediata de alívio.
Só que é precisamente aqui que começa o problema.
Porque aquilo que se sente quando temos uma “resposta” de um sistema não humano e que responde com base em algoritmos não é necessariamente compreensão.
É só uma redução momentânea do desconforto.
O sistema responde-lhe de forma estruturada, confirma emoções, oferece sugestões genéricas e mantém o fluxo da conversa. Não lhe exige responsabilidade. Não nos confronta. Não lhe pede uma mudança real.
E isto pode ser profundamente sedutor.
Num momento de vulnerabilidade, a disponibilidade imediata de um sistema que imita as respostas de um ser humano até parece cuidado. A ausência de confronto parece empatia. E a validação rápida parece apoio.
Mas há uma diferença importante entre aliviar o desconforto e promover a saúde psicológica.
Na prática, o alívio imediato não é neutro. Quando repetido, pode transformar-se num mecanismo de evitamento. Então, em vez de tolerar a frustração, procurar apoio real efetivo ou enfrentar os conflitos, a pessoa aprende que existe sempre uma resposta pronta que a acalma temporariamente.
Tal como acontece com outras formas de regulação externa, este padrão pode reduzir a capacidade de tolerar emoções difíceis e aumentar a dependência da fonte que proporciona o alívio.
E mais: ao contrário de numa relação terapêutica, nestas conversas com as plataformas de Inteligência Artificial, não há monitorização de risco, não há leitura do que fica por dizer nem sequer responsabilidade sobre o impacto daquilo que é sugerido.
Na minha perspetiva, mais perigoso do que chamar-se a estas interações “terapia” é confundir-se a redução imediata da ansiedade com o verdadeiro cuidado psicológico.
Pode parecer que são quase a mesma coisa, mas não são.

Ao longo dos anos, tenho acompanhado pessoas em momentos de grande fragilidade. Sei o que significa procurar alívio às duas da manhã. Sei o que é querer uma resposta imediata. E compreendo a tentação de recorrer a algo que parece sempre disponível. Mas também sei – pela experiência clínica e pela ciência – que nem tudo o que alivia constrói saúde. Este texto nasce dessa responsabilidade.
Quem trabalha comigo sabe que não tenho qualquer preconceito em relação à Inteligência Artificial. Pelo contrário, aconselho muitas vezes a sua utilização em muitas circunstâncias, explicando como pode fazê-lo com segurança e reconheço o seu enorme potencial. A tecnologia pode facilitar processos, organizar informação, poupar tempo e tornar muitas dimensões da nossa vida mais eficientes. Acredito genuinamente que devemos aprender a utilizá-la a nosso favor.
Mas reconhecer-lhe utilidade não significa ignorar os limites.
Como qualquer ferramenta poderosa, a Inteligência Artificial pode ajudar – ou pode prejudicar – dependendo da forma como é usada e do contexto em que é aplicada. O problema não está necessariamente na existência da tecnologia, mas na ausência de consciência sobre aquilo em que ela pode e não pode ajudar e quais os riscos associados.
Ora, quando falamos de saúde mental, esta distinção é fundamental.
O que é terapia – e porque não é apenas falar sobre sentimentos
Existe uma ideia comum – e compreensível – de que fazer terapia é “ir falar com alguém sobre o que se sente”.
Mas a psicoterapia não é apenas conversa.

É um processo clínico estruturado, conduzido por um profissional com formação específica, enquadramento ético e responsabilidade legal. Envolve avaliação, compreensão aprofundada dos padrões da pessoa, definição de objetivos, monitorização contínua e ajuste das intervenções ao longo do tempo.
Mais do que isso: a terapia é uma relação.
E esta palavra – relação – é muitíssimo importante.
Ao longo de décadas, a investigação em psicoterapia tem mostrado que a qualidade da aliança terapêutica é um dos fatores mais consistentes associados à mudança psicológica (Horvath et al., 2011). Não se trata apenas de simpatia ou de sentir-se ouvido. Trata-se de um vínculo profissional que combina empatia com confronto, validação com limites e apoio com responsabilização.
Num processo terapêutico, o profissional não se limita a acompanhar o discurso do paciente. Procura distinguir emoção de interpretação, identifica padrões repetitivos, reconhece mecanismos de defesa, avalia risco e decide quando aprofundar determinada temática e quando estabilizar. Além disso, regula a intensidade emocional da sessão e ajusta a intervenção àquilo que a pessoa está, de facto, preparada para integrar naquele momento específico.
Na terapia, há um ponto que raramente é visível para quem nunca passou por um processo destes: a capacidade de tolerar o desconforto dentro da relação. Há momentos em que o terapeuta questiona, confronta ou devolve uma perspetiva que não é imediatamente agradável. E é precisamente essa tensão – contida num espaço seguro – que permite o crescimento psicológico.
Ou seja, num processo terapêutico, a mudança não acontece apenas porque alguém organiza as nossas ideias (como a Inteligência Artificial, até certo ponto, faz).
Acontece porque somos desafiados a olhar para elas de forma diferente.
Além disto, um psicólogo está sujeito a um código deontológico, supervisão e a um enquadramento legal. Se surgir ideação suicida, risco de violência, trauma ativo ou desorganização grave, existe a obrigação ética de avaliar, intervir e, se necessário, encaminhar.
Por tudo isto, é preciso deixar claro que a terapia não é apenas escuta.
Terapia é prestar um cuidado estruturado com responsabilidade clínica.
Ao longo de quase quinze anos enquanto coach, sempre trabalhei com profundo respeito pelos limites da intervenção psicológica. Desde cedo, investi em formação contínua, supervisão e estudo sério da psicologia e da psicoterapia, precisamente para garantir que o meu trabalho não fosse superficial nem irresponsável.
Hoje, enquanto psicóloga em processo de consolidação de certificação na ordem, mantenho o mesmo princípio que sempre orientou a minha prática: ética, rigor e clareza sobre o que posso e não posso fazer. A experiência em coaching ensinou-me a trabalhar com estrutura, objetivos e implementação prática; a formação em psicologia ensinou-me a integrar profundidade clínica, responsabilidade e enquadramento terapêutico.
É, portanto, também a partir desse rigor que posiciono o meu próprio trabalho.
Quando compreendemos o que é verdadeiramente um processo terapêutico – com método, responsabilidade e relação – percebemos que a diferença entre “conversar” e “estar em terapia” é estrutural.
E é a partir desta diferença que precisamos de olhar para qualquer sistema que prometa substituir um processo terapêutico humano.
Terapia com IA: vantagens, riscos e limites
Antes de percebermos o que a Inteligência Artificial não consegue fazer, é importante olhar de forma equilibrada para aquilo que ela oferece e para os seus limites.

O que a Inteligência Artificial realmente faz – e porque não pode substituir uma relação clínica
Para percebermos os riscos, é importante compreender primeiro como funciona aquilo a que chamamos “Inteligência Artificial” nestes contextos.
Os sistemas conversacionais atuais não pensam, não sentem e não compreendem da forma como os seres humanos compreendem. Funcionam com base em modelos de linguagem treinados com enormes quantidades de texto provenientes de bases de dados e o seu objetivo é prever qual é a resposta linguisticamente mais adequada a seguir, tendo em conta aquilo que foi escrito antes.
Isto significa que a IA não tem intenção, nem perceção clínica, nem consciência do impacto emocional das palavras que debita. O que tem é a capacidade de reconhecer padrões e produzir frases que soam coerentes, empáticas e estruturadas.
E fá-lo bem.
Mas há uma consequência importante dessa forma de funcionamento: estes sistemas tendem a ser confirmatórios e também a se alinhar-se com os preconceitos existentes na sociedade.
Nenhum modelo é neutro.
Se os dados de treino incluem visões estereotipadas, interpretações simplificadas da saúde mental ou narrativas sociais enviesadas, o sistema pode – mesmo sem intenção – reproduzir esses padrões. Isto significa que determinadas crenças limitantes podem ser confirmadas, certas interpretações podem ser reforçadas e algumas perspetivas culturalmente dominantes podem ser apresentadas como se fossem universais.
A IA não avalia criticamente os pressupostos sociais que incorpora.
Simplesmente, reproduz padrões que aprendeu.
Além disso, estes sistemas foram treinados para manter a conversa fluida, evitar conflitos desnecessários e adaptar-se ao estilo do utilizador. Por exemplo, se alguém escreve num tom ansioso, a resposta adapta-se a esse tom. Se alguém expressa uma crença negativa sobre si próprio, a resposta pode validar a emoção – mas dificilmente irá distinguir, com rigor clínico, entre validar a dor e questionar a interpretação.
A IA não consegue perceber o que não está escrito.

Não consegue ler hesitações, silêncios ou contradições subtis entre discurso e expressão corporal. Não capta microssinais de desorganização emocional. Não avalia coerência narrativa ao longo do tempo. Não identifica quando uma ideia aparentemente lógica esconde um padrão repetitivo de autossabotagem.
Porque, para fazer isso, não basta reconhecer palavras; é preciso interpretar o contexto humano.
Vamos ver uma situação prática: uma pessoa escreve sobre o que sente sem se aperceber de que, nas entrelinhas, existem sentimentos de culpa, medo de estar a falhar com os outros ou receio de causar dano involuntário. No texto, pode soar articulada, racional e até muito reflexiva. Mas, por detrás dessas palavras, pode existir um sistema nervoso altamente ativado – ansiedade intensa, hipervigilância, autoexigência extrema, dificuldade em identificar emoções e padrões.
Sendo que os sistemas de Inteligência Artificial dão uma resposta mais técnica, analítica ou que aprofunda ainda mais a responsabilidade, explorando cenários complexos ou incentivando uma maior introspeção, isto pode contribuir para aumentar a ativação emocional da pessoa que está do outro lado, em vez de contribuir para a sua regulação emocional.
Neste sentido, a resposta destes sistemas até pode estar linguisticamente correta e parecer profunda, mas também pode amplificar a culpa, o medo ou a sensação de sobrecarga.
Isto acontece porque enquanto um sistema algorítmico responde ao conteúdo explícito das palavras, um terapeuta humano responde também ao estado emocional implícito, dando feedback constante e ajudando na autorregulação.
Ou seja, um terapeuta humano teria percebido a tensão na voz, a mudança de ritmo, talvez o olhar mais inquieto. E, nesta situação, poderia ter abrandado o ritmo da sessão, ajudado a pessoa a sentir-se acolhida e segura nas suas emoções ou até podia ter voltado a fazer a mesma pergunta de outra forma. O sistema, por enquanto, não tem como perceber isso e responde apenas ao texto.
Este é um dos riscos menos visíveis de usar a IA como apoio terapêutico: uma resposta pode ser linguisticamente adequada e emocionalmente desreguladora.

No processo terapêutico, há momentos em que o que está em causa não é aprofundar a reflexão, mas reduzir a intensidade. Não é expandir o pensamento, mas ajudar a pessoa a estabilizar-se. Não é questionar mais, mas acolher, dar segurança – o que, em psicologia, habitualmente designamos por “conter”.
Quando essa leitura dinâmica não existe, uma pessoa vulnerável pode sair da interação mais ansiosa, mais centrada na culpa ou mais presa ao próprio pensamento, reforçando padrões já existentes. E este é apenas um exemplo.
Se não tiver recursos internos sólidos, a ativação pode aumentar o sofrimento de forma significativa. Em casos mais graves, pode mesmo contribuir para desorganização emocional intensa – situações que, infelizmente, já temos visto associadas ao uso inadequado deste tipo de ferramentas.
E é precisamente esta capacidade de perceber quando proteger o estado emocional da pessoa e quando o aprofundar que pertence ao território clínico humano, não ao algorítmico.
Há ainda outro limite estrutural dos sistemas de Inteligência Artificial: a ausência de responsabilidade.
Um terapeuta toma decisões clínicas. Avalia o risco, assume responsabilidade pelas intervenções que propõe, ajusta a estratégia se percebe que algo não está a resultar e está atento à evolução da pessoa ao longo do tempo.
Um sistema algorítmico não acompanha.
Não monitoriza.
Não assume consequências.
Até pode oferecer sugestões bem formuladas. Pode organizar pensamentos. Pode devolver perguntas aparentemente inteligentes. Mas não pode construir um processo clínico adaptado à singularidade de cada pessoa.
A IA consegue conversar.
Mas não consegue relacionar-se.
E a saúde mental não se transforma apenas através de palavras organizadas ou a explicar o que se passa. Transforma-se através de experiências relacionais que promovem segurança, confronto construtivo, crescimento emocional e muito mais. O processo terapêutico é um trabalho complexo, mas muito rico.
Neste sentido, quando confundimos fluidez linguística com competência terapêutica, estamos a atribuir à tecnologia uma função que ela não está preparada para assumir.
E isto tem implicações na nossa vida.
É precisamente por isso que o critério humano – aquele que lê o que não está escrito – continua a ser insubstituível.
Quando pensar mais não significa avançar
Nem todos os riscos do uso da IA como “terapia” são visíveis no momento em que acontecem. Alguns são silenciosos, progressivos, quase impercetíveis.
À primeira vista, escrever sobre aquilo que sentimos e receber uma resposta organizada pode parecer um exercício saudável de reflexão, mas a psicologia distingue claramente entre reflexão produtiva e ruminação.

A ruminação é um padrão em que a pessoa repete os mesmos pensamentos negativos, analisa-os de múltiplas formas e procura explicações incessantemente, sem que isso conduza a uma resolução real (Nolen-Hoeksema, 2000), já que pensar mais não é o mesmo que transformar.
Quando uma pessoa regressa repetidamente ao mesmo tema e recebe respostas estruturadas que acompanham essa narrativa, pode acontecer algo o seguinte: o pensamento que a pessoa tem ganha forma, consistência e até a sensação de legitimidade.
Ora, a investigação mostra que ideias repetidas e confirmadas tendem a tornar-se mais convincentes ao longo do tempo, mesmo quando não são totalmente precisas (Fazio et al., 2015).
E nem é necessário que o sistema concorde explicitamente; basta que organize, desenvolva ou aprofunde a mesma linha de raciocínio.
Num processo terapêutico humano, existe um movimento ativo para interromper ciclos repetitivos, introduzir novas perspetivas e promover a flexibilidade cognitiva. O terapeuta reconhece quando a pessoa está presa num padrão e trabalha para o desorganizar de forma segura.
Já um sistema algorítmico, por sua vez, não reconhece padrões de ruminação como um fenómeno clínico e continua a conversa como se nada fosse.
O ciclo de alívio e repetição
No âmbito deste tema da terapia com Inteligência Artificial, há um outro fenómeno relevante: o reforço negativo.
Na psicologia comportamental, sabemos que quando um comportamento reduz rapidamente o desconforto, aumenta a probabilidade de ser repetido (Skinner, 1953).
Ou seja, quando uma interação reduz rapidamente a ansiedade, o cérebro aprende que esse comportamento “funciona”. E aquilo que funciona tende a repetir-se.

Se, sempre que surge um desconforto emocional, a pessoa escreve e obtém alívio momentâneo, cria-se um ciclo: desconforto → interação → alívio → repetição.
Com o tempo, isto pode reduzir a tolerância ao desconforto e aumentar a dependência de regulação externa.
A resiliência psicológica não se constrói através da eliminação imediata da tensão. Constrói-se através da capacidade de a atravessar e integrar (Bonanno, 2004).
Neste sentido, se o padrão predominante for amortecer rapidamente o mal-estar, a capacidade de sustentar emoções difíceis pode enfraquecer gradualmente. Ou seja, isto pode nem ser evidente no imediato, mas com o passar do tempo vai trazer consequências nefastas para o seu bem-estar emocional.
A ilusão de progresso
Outro fenómeno frequente – e que a IA veio exponenciar é a sensação de que se está a avançar só porque se está a pensar mais.
Quando um sistema organiza ideias, reformula pensamentos e apresenta análises estruturadas, pode surgir uma perceção de profundidade. A pessoa sente que compreendeu melhor o que se passa consigo.
Mas compreender não significa transformar.
Na psicoterapia, o insight cognitivo – perceber “porque sou assim” ou “de onde vem isto” – raramente é suficiente por si só. A mudança emocional exige mais do que isto; exige experiência vivida, confronto seguro, repetição de novos padrões e integração ao longo do tempo.
Como já referi, a terapia é um processo relacional.
E, sem essa dimensão relacional, a mera reflexão pode transformar-se numa atividade intelectualmente estimulante, mas que, emocionalmente, não traz mudanças positivas.
Assim, até lhe pode dar a sensação de avanço, mas isso não implica que, na prática, exista efetivamente uma reorganização mental e emocional.
Quando a tecnologia começa a substituir a relação
Quando alguém começa a preferir conversar com um sistema em vez de procurar apoio humano – por ser mais fácil, mais rápido ou menos desconfortável – isso pode ser um sinal de alerta.
Por um lado, é inegável que as relações humanas implicam frustração, confronto, imprevisibilidade e responsabilidade. São mais exigentes do que um “relacionamento” com um sistema que foi criado para agradar a quem lhe dá as “ordens”.
Por outro, um sistema algorítmico é previsível – e essa previsibilidade pode tornar-se confortável. Estes sistemas não ficam magoados. Não se cansam. Não reagem. Não impõem limites. Não precisam de negociação relacional, mas é precisamente na complexidade dos relacionamentos que ocorre o crescimento emocional.
A investigação sobre comportamento digital mostra que o cérebro humano é sensível a padrões de reforço rápido e disponibilidade constante (Montag & Hegelich, 2020). Como já referi anteriormente, tendemos a repetir o que nos alivia rapidamente e, por isso, o que está sempre disponível tende a substituir aquilo que exige mais esforço.
Consequentemente, se não houver consciência crítica, o que começa como curiosidade pode transformar-se num padrão de evitamento relacional.
E evitar a relação é, muitas vezes, evitar o crescimento.
O que a ciência já nos diz: limites, alertas e responsabilidade
A utilização de sistemas de Inteligência Artificial na área da saúde mental é relativamente recente. Isto significa que a investigação ainda está em desenvolvimento. No entanto, já existem alguns consensos importantes.

Várias revisões científicas que analisaram chatbots e agentes conversacionais aplicados à saúde mental mostram resultados modestos e inconsistentes. Algumas pessoas relatam redução ligeira de sintomas de ansiedade ou humor deprimido em contextos muito específicos e controlados. No entanto, os próprios investigadores sublinham limitações metodológicas, falta de estudos a longo prazo e escassa avaliação de segurança clínica (He et al., 2023; Li et al., 2023).
Isto não significa que a tecnologia seja inútil. Significa que ainda não existe evidência robusta que permita equiparar estas ferramentas a um processo terapêutico conduzido por um profissional.
Outra questão importante aqui é a segurança.
A American Psychological Association publicou recentemente um alerta sobre o uso de chatbots generativos em saúde mental, sublinhando riscos como desinformação, respostas inadequadas em situações de crise e ausência de responsabilização profissional.
Quando falamos de saúde mental, não estamos só a falar de bem-estar ligeiro ou de um desconforto passageiro. Estamos a falar de situações que podem envolver trauma, ideação suicida, perturbações graves ou risco para a própria pessoa ou para terceiros.
Um sistema algorítmico não consegue:
- avaliar o risco de forma clínica;
- decidir quando é necessário encaminhamento urgente;
- acompanhar a evolução ao longo do tempo;
- assumir responsabilidade ética pelas sugestões que nos dá.
Além disso, a Organização Mundial da Saúde tem vindo a alertar para a necessidade de forte governação ética na aplicação de modelos de Inteligência Artificial em contextos de saúde, devido a riscos relacionados com privacidade, enviesamento e utilização indevida de dados sensíveis.
Afinal, em saúde mental, a confidencialidade é uma condição estruturante da confiança terapêutica, na medida em que, quando uma pessoa partilha experiências de abuso, vergonha profunda, ideação suicida ou conflitos familiares complexos, a segurança dessa informação é fundamental.
Num processo clínico, o sigilo profissional está protegido por lei e por código deontológico. Numa aplicação digital, os dados podem ser armazenados, analisados e utilizados para treino de sistemas. Mesmo com políticas de privacidade, a natureza do enquadramento é diferente.
Além de tudo isto, estes sistemas não foram desenhados para fazer intervenção clínica. Foram desenhados para gerar linguagem e gerar linguagem convincente é bem diferente de cuidar da saúde mental.
Uso responsável: discernimento em vez de substituição
A minha proposta nesta matéria não é viver contra a tecnologia.
A questão fundamental, na minha opinião, é percebermos o lugar que cada ferramenta ocupa na nossa vida.

A Inteligência Artificial pode apoiar na organização de ideias, no acesso inicial a informação geral, na clarificação de conceitos psicoeducativos ou como instrumento reflexivo entre sessões, quando a pessoa já dispõe de estabilidade emocional suficiente para interpretar criticamente aquilo que lê. Mas isto só quando a pessoa já possui recursos internos suficientes para fazer esta interpretação crítica sozinha.
Neste sentido, para que qualquer ferramenta digital seja usada de forma saudável, é necessário:
- capacidade de autorregulação emocional;
- consciência das próprias vulnerabilidades;
- discernimento para reconhecer limites;
- e não estar numa situação clínica ativa ou de risco.
Sem estes pré-requisitos, o que parece ajudar pode, pelo contrário, aumentar a confusão.
Na verdade, a informação devolvida por um sistema algorítmico não é personalizada no sentido clínico. Baseia-se em padrões gerais, não conhece nem sabe interpretar a história relacional da pessoa, não avalia o risco em tempo real nem percebe quando uma interpretação pode ser prejudicial num momento específico.
E quando alguém está emocionalmente fragilizado, a capacidade de filtrar, contextualizar e questionar a informação facultada por estes sistemas pode estar reduzida.
É precisamente nessas fases que a presença humana é mais necessária.
Se existir:
- ideação suicida,
- trauma ativo,
- perturbações graves de ansiedade ou depressão,
- desorganização emocional intensa,
- isolamento social significativo,
Recorrer a um sistema automatizado pode ser francamente prejudicial.
Porque o que está em causa, mais do que a clareza cognitiva, é a própria segurança das pessoas.
Uma pergunta que gostaria de lhe fazer…
Com tudo o que se ouve dizer que a Inteligência Artificial é capaz de fazer, é natural que se pergunte: “A Inteligência Artificial pode ajudar-me na minha saúde mental?”
Mas o convite que lhe deixo é que faça outra pergunta, mais profunda e mais responsável também:

Quando procuro esta ferramenta para substituir um processo de acompanhamento, estou a aproximar-me do apoio que procuro…
ou estou a evitar algo que me exige mais coragem?
Estou a tentar compreender-me melhor…
ou estou apenas a procurar alívio imediato?
Estou a desenvolver a minha autonomia emocional…
ou estou a criar dependência de respostas rápidas?
Estas perguntas são exercícios de autoconsciência.
Genuinamente, preocupo-me quando recorremos a soluções imediatas sem nos perguntarmos o que nos levou até ali, porque, muitas vezes, aquilo que procuramos não é somente uma explicação; queremos – e precisamos – mais do que isso; queremos segurança, vínculo, contenção.
E isto merece mais do que uma resposta automática. A sua saúde mental merece mais do que uma resposta automática.
Resumindo: O que não pode ser automatizado
A saúde mental não se constrói apenas através da organização de pensamento.
Constrói-se através de relações humanas que acontecem na vida real.
Relações onde existe presença.
Onde há limites.
Onde há confronto construtivo.
Onde alguém assume responsabilidade por aquilo que diz.
E onde o silêncio e os gestos também comunicam.

Sei que a tecnologia pode ser uma ferramenta poderosa quando usada com maturidade, mas não substitui o encontro humano.
No fundo, aquilo que mais cura não é a resposta rápida, mas a experiência de sermos vistos, compreendidos e acompanhados por alguém que está realmente ali. E isso a ciência já explica muito bem.
Recorrer à Inteligência Artificial para refletir pode ser útil.
Mas chamar-lhe “terapia” pode criar uma ilusão perigosa.
Quando falamos de trauma, depressão, ansiedade severa, burnout profundo, ideação suicida ou padrões relacionais complexos, o acompanhamento por um profissional qualificado não pode ser visto como um luxo. É uma necessidade ética e clínica.
A tecnologia pode apoiar, mas não substitui presença, responsabilidade e vínculo, fatores essenciais para o bem-estar do ser humano.
Talvez, no fundo, seja isso que nos cura.
Se este tema lhe despertou interesse e lhe abriu espaço para a reflexão, talvez seja um bom momento para perguntar: quem está verdadeiramente a acompanhá-la nos seus “processos terapêuticos”?
Ninguém deveria atravessar fases difíceis sozinho. E recorrer à Inteligência Artificial para procurar respostas para questões tão sensíveis como a nossa saúde mental só contribui para criar a ilusão de que estamos acompanhados, quando, na verdade, continuamos sozinhos.
Por isso, se sente que está a atravessar um momento de ansiedade persistente, tristeza profunda, exaustão emocional ou padrões repetitivos que não consegue quebrar sozinho, procurar apoio humano qualificado é um ato de responsabilidade consigo. É um ato de amor próprio e de autoestima.
Trabalho com mulheres que, mesmo estando plenamente funcionais, se sentem a atravessar uma fase de exaustão, transição e reorganização emocional. Em todos os meus processos, integro profundidade clínica com estrutura e clareza prática.
Se sentir que faz sentido para si, entre em contacto comigo para uma primeira conversa de enquadramento.
—
Perguntas Frequentes sobre “terapia” com Inteligência Artificial
1. A Inteligência Artificial pode substituir a terapia psicológica?
Não. A Inteligência Artificial pode simular conversas e organizar pensamentos, mas não possui capacidade clínica, consciência emocional nem responsabilidade ética. A terapia envolve avaliação, relação terapêutica e intervenção adaptada, algo que a IA não consegue replicar.
2. É seguro usar chatbots de IA para apoio emocional?
Depende do contexto. Em situações ligeiras, pode ajudar a organizar ideias, mas em momentos de vulnerabilidade emocional, ansiedade intensa ou depressão, pode ser insuficiente ou até desregulador. Nada substitui acompanhamento profissional para avaliar convenientemente a situação.
3. Qual é a diferença entre falar com a IA e fazer terapia?
Falar com uma plataforma de IA é uma interação baseada em padrões linguísticos.
A terapia é um processo clínico estruturado com diagnóstico, objetivos, acompanhamento e relação humana, e que são fatores essenciais para a mudança psicológica.
4. A IA pode piorar a saúde mental?
Sim, em alguns casos. Pode reforçar padrões de ruminação, validar crenças negativas ou criar dependência de alívio imediato, dificultando o desenvolvimento de resiliência emocional.
5. Quando devo procurar um psicólogo em vez de usar IA?
Se existir ansiedade persistente, tristeza profunda, trauma, ideação suicida, exaustão emocional ou padrões repetitivos que não consegue quebrar sozinha, o acompanhamento profissional é essencial.
6. A terapia online com humanos é diferente da IA?
Sim. Mesmo online, a terapia com um psicólogo mantém a relação terapêutica, a ética profissional, a avaliação clínica e a responsabilidade. Estes elementos não existem em sistemas automatizados.
7. A IA pode ser usada de forma positiva na saúde mental?
Sim, mas sempre como ferramenta complementar: para psicoeducação, reflexão entre sessões ou organização de pensamentos, e desde que exista discernimento e estabilidade emocional validada por um profissional credenciado.
—
Referências
- Bonanno, G. A. (2004). Loss, trauma, and human resilience: Have we underestimated the human capacity to thrive after extremely aversive events? American Psychologist, 59(1), 20–28.
- Fazio, L. K., Brashier, N. M., Payne, B. K., & Marsh, E. J. (2015). Knowledge does not protect against illusory truth. Journal of Experimental Psychology: General, 144(5), 993–1002.
- He, Y., et al. (2023). Conversational agent interventions for mental health: Systematic review and meta-analysis. Journal of Medical Internet Research, 25, e43862.
- Horvath, A. O., Del Re, A. C., Flückiger, C., & Symonds, D. (2011). Alliance in individual psychotherapy. Psychotherapy, 48(1), 9–16.
- Li, H., et al. (2023). The effectiveness of artificial intelligence–based conversational agents in mental health: Systematic review and meta-analysis. npj Digital Medicine, 6, 64.
- Montag, C., & Hegelich, S. (2020). Understanding dopamine and digital addiction: A perspective on social media use and dependency. Addictive Behaviors Reports, 12, 100271.
- Nolen-Hoeksema, S. (2000). The role of rumination in depressive disorders and mixed anxiety/depressive symptoms. Journal of Abnormal Psychology, 109(3), 504–511.
- World Health Organization. (2024). Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models. WHO.
- American Psychological Association. (2025). Health advisory on the use of generative artificial intelligence in mental health applications. APA.
—
Nota de Transparência
Este artigo baseia-se no conhecimento psicológico atual sobre emoções morais, autorregulação emocional, motivação humana e processos de mudança pessoal e profissional. As ideias apresentadas são sustentadas por investigação científica, mas foram traduzidas para uma linguagem simples e acessível para facilitar a reflexão e o autoconhecimento no dia a dia.


