Psicologia e IA

IA e ética na psicologia clínica: limites, riscos e fronteiras não negociáveis

IA e ética na psicologia clínica: limites, riscos e fronteiras não negociáveis

Bruno Damásio

7 minutos

14 de dez. de 2025

purple and white heart illustration
purple and white heart illustration
purple and white heart illustration

A incorporação de inteligência artificial na psicologia clínica não é mais uma hipótese futurista. Ela já está presente em rotinas de escrita, triagem, organização de prontuários, psicoeducação, suporte a decisões e, cada vez mais, em aplicações conversacionais com aparência de “intervenção psicológica”. Esse movimento cria oportunidades reais, mas também inaugura um problema ético inevitável: quanto maior a potência técnica, maior o risco de ultrapassar fronteiras clínicas que não podem ser tratadas como simples “boas práticas”. Em saúde mental, a linha entre inovação e iatrogenia pode ser sutil, e frequentemente é atravessada sem intenção, por falta de governança e de critérios explícitos.

A discussão séria sobre IA em clínica precisa começar por um princípio simples: tecnologia não altera a responsabilidade profissional. O fato de um sistema sugerir algo, produzir um texto bem escrito ou aparentar empatia não o transforma em cuidado psicológico, nem transfere a autoria clínica para a ferramenta. O que está em jogo não é “ser a favor” ou “ser contra” IA, mas definir com rigor o que é aceitável, o que é arriscado e o que é simplesmente indelegável. Isso inclui tanto princípios internacionais de governança e segurança quanto normativas e deveres locais, como a proteção de dados sensíveis e as regras de prestação de serviços psicológicos mediada por tecnologia no Brasil (American Psychological Association [APA], 2024a; Conselho Federal de Psicologia [CFP], 2025; World Health Organization [WHO], 2021).


O ponto de partida ético: IA não é terapeuta, e “conversa” não é intervenção

Sistemas de IA generativa são, por definição, máquinas de produção de conteúdo com base em padrões. Eles podem criar respostas plausíveis e coerentes sem qualquer compromisso com veracidade, precisão clínica ou adequação contextual. Em saúde, isso se traduz em um risco clássico: a produção de orientações convincentes, porém incorretas, insuficientes ou perigosas, sobretudo quando o usuário está vulnerável. Por isso, entidades como a American Psychological Association têm publicado alertas e orientações específicas sobre o uso de IA e chatbots em contextos de saúde mental, destacando riscos para populações vulneráveis e a necessidade de salvaguardas, validação e supervisão humana (APA, 2024b, 2025a).

Esse é o primeiro limite: não é eticamente defensável tratar IA conversacional como substituta de avaliação psicológica, de formulação clínica ou de psicoterapia. Mesmo quando a IA “acerta”, ela o faz sem os elementos que sustentam a ética clínica: responsabilidade, rastreabilidade do raciocínio, conhecimento do paciente ao longo do tempo, vínculo terapêutico real, manejo de risco e obrigação de agir diante de sinais de agravamento.


Riscos centrais na prática clínica com IA

Há riscos técnicos, mas também riscos clínicos e institucionais. E o que torna a discussão difícil é que muitos deles não aparecem como “erro” imediato. Eles se instalam como ruído: pequenas distorções na relação terapêutica, perdas silenciosas de confidencialidade, deslocamento da autonomia do paciente, ou decisões tomadas com base em uma confiança indevida na ferramenta.

Um risco crítico é a alucinação, respostas fabricadas com aparência de verdade. Em clínica, isso pode produzir desde psicoeducação errada até orientações inadequadas para quadros graves, incluindo risco suicida, violência doméstica, abuso de substâncias ou psicose. Outro risco é a falsa neutralidade: modelos tendem a reproduzir vieses do treinamento e do contexto de uso, o que pode afetar linguagem, julgamentos implícitos, estigmatização e desigualdades. Estruturas de gestão de risco em IA, como as do NIST, tratam explicitamente de categorias como segurança, viés nocivo, privacidade, robustez e governança ao longo do ciclo de vida do sistema (National Institute of Standards and Technology [NIST], 2023, 2024).

Há também o risco de desresponsabilização clínica. Quando o profissional terceiriza partes do raciocínio para a IA, a fronteira entre “apoio” e “decisão” pode se dissolver. Em saúde, isso é especialmente problemático porque o dano pode ocorrer mesmo quando o output parece sensato. É por isso que recomendações internacionais insistem em supervisão humana efetiva, transparência, documentação e capacidade de intervenção e desligamento do sistema quando necessário (European Commission, 2024; WHO, 2024).


Privacidade, sigilo e dados sensíveis: a fronteira mais frequentemente violada

Na psicologia clínica, quase tudo é dado sensível. Relatos de sintomas, história de trauma, sexualidade, uso de substâncias, conflitos familiares, diagnósticos e prontuários são informações de altíssimo risco em caso de vazamento, reidentificação ou uso secundário indevido. No Brasil, a LGPD classifica dados de saúde como sensíveis e impõe bases legais e requisitos mais estritos para seu tratamento, incluindo consentimento específico em várias situações, minimização, segurança e governança (Brasil, 2018).

Aqui há um ponto prático que precisa ser dito com clareza: copiar e colar conteúdo clínico identificável em ferramentas genéricas de IA, sem contrato, sem garantias de tratamento e sem governança institucional, é uma prática de alto risco. Mesmo quando a ferramenta “promete” privacidade, a obrigação ética do psicólogo não é confiar em promessas; é operar com critérios de conformidade, necessidade, minimização e controle (WHO, 2021).


Competência profissional e transparência: o que o paciente tem direito de saber

A ética profissional exige que o paciente compreenda o que está sendo usado, para quê, com quais limites e com quais riscos. Isso não significa abrir detalhes técnicos irrelevantes, mas implica transparência funcional: quando a IA participa do atendimento, o paciente deve saber se ela está sendo usada para produzir textos, resumir informações, apoiar monitoramento, sugerir hipóteses ou auxiliar documentação.

Além disso, competência aqui não é “saber usar prompt”. Competência é ser capaz de responder: quais são as limitações do sistema, quais erros ele comete, como eu valido o output, como eu documento, como eu evito que isso degrade a aliança terapêutica, e quais situações exigem que eu não use IA. A APA publicou orientação ética específica para integração de IA na prática profissional em saúde psicológica, justamente para apoiar esse tipo de tomada de decisão na vida real (APA, 2025b).


Fronteiras não negociáveis: o que a IA não deve fazer na clínica

Algumas fronteiras são defensáveis com ajustes e governança. Outras são, na prática, não delegáveis porque ferem princípios básicos de segurança, autonomia e responsabilidade.

A primeira fronteira é avaliação e manejo de risco como tarefa automatizada. Qualquer uso de IA que produza “estratificação de risco” sem validação clínica robusta, sem supervisão humana, sem protocolos de resposta e sem responsabilidade definida é eticamente frágil. Em particular, orientar conduta em risco suicida, automutilação, violência ou abuso não pode ser terceirizado a sistemas que podem alucinar, omitir fatores contextuais e não têm dever de cuidado.

A segunda fronteira é substituição de psicoterapia por chatbots generalistas como se fossem tratamento. A própria APA emitiu alertas e recomendações para segurança do consumidor diante de chatbots e apps de bem-estar, incluindo riscos de interações inseguras e ausência de validação clínica adequada (APA, 2024b).

A terceira fronteira é tratamento de dados clínicos identificáveis fora de ambientes com controles adequados. Quando o dado clínico entra em um sistema sem garantias, logs, política de retenção, governança de acesso e conformidade, o risco deixa de ser teórico.

A quarta fronteira é opacidade decisional. Se o profissional não consegue explicar por que uma recomendação foi adotada, o que foi validado e como o juízo clínico foi formado, então a IA deixou de ser apoio e virou substituto indevido.


O que é eticamente defensável: usos assistivos com governança e supervisão

O debate fica mais produtivo quando separa usos assistivos de usos substitutivos. Em geral, é mais defensável usar IA para tarefas de baixo risco, como apoio à escrita administrativa, organização de informações, revisão de linguagem não clínica, síntese de materiais psicoeducativos que serão revisados e contextualizados pelo profissional, ou apoio à mensuração e monitoramento quando há instrumentos validados, controles de privacidade e interpretação clínica humana.

Mesmo nesses casos, a regra é a mesma: supervisão humana real, validação do output, minimização de dados, documentação e auditoria. A WHO, ao tratar de IA em saúde e, mais recentemente, de modelos generativos multimodais, enfatiza governança, proteção de direitos, transparência, segurança e responsabilização como condições para uso aceitável (WHO, 2021, 2024).


O cenário brasileiro: tecnologia mediando serviços psicológicos e o debate sobre IA

No Brasil, além das obrigações de proteção de dados, há o marco normativo da prestação de serviços psicológicos mediada por tecnologias digitais, e o próprio Conselho Federal de Psicologia tem publicado posicionamentos e estruturado discussões sobre IA na prática psicológica, com foco em diretrizes para uso ético e tecnicamente sólido (CFP, 2025).

O ponto central, aqui, é coerência profissional. Não basta “usar porque está disponível”. Em saúde mental, o padrão ético é mais alto porque o dano potencial é maior, e porque o paciente frequentemente está em condições de vulnerabilidade que amplificam efeitos de erros, vieses e vazamentos.


A ética precisa ser aplicada, não apenas declaratória

“Usar IA com ética” não significa inserir um aviso no rodapé. Significa definir escopo, risco, responsabilidade, privacidade, transparência, validação e limites. Significa reconhecer que nem tudo o que pode ser automatizado deve ser automatizado, e que há fronteiras clínicas não negociáveis. Também significa aceitar que a discussão não é só técnica: é moral, jurídica e clínica, porque envolve autonomia do paciente, segurança, confiança e a própria definição do que é cuidado psicológico.

Se a psicologia quiser incorporar IA de forma madura, a regra é simples: tecnologia deve aumentar segurança e qualidade, não reduzir o padrão clínico.


Referências (APA)

  • American Psychological Association. (2024a). Artificial intelligence in mental health care.

  • American Psychological Association. (2024b). Health advisory on the use of generative AI chatbots and wellness applications for mental health.

  • American Psychological Association. (2025a). Artificial intelligence is reshaping how psychologists work.

  • American Psychological Association. (2025b). Ethical guidance for AI in the professional practice of health service psychology.

  • Brasil. (2018). Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais – LGPD).

  • Conselho Federal de Psicologia. (2025). Posicionamento sobre o uso da inteligência artificial na prática psicológica.

  • European Commission. (2024). Artificial Intelligence Act and high-risk AI systems in healthcare.

  • National Institute of Standards and Technology. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0).

  • National Institute of Standards and Technology. (2024). Managing risks in generative artificial intelligence.

  • World Health Organization. (2021). Ethics and governance of artificial intelligence for health.

  • World Health Organization. (2024). Ethics and governance guidance on large multi-modal models.

Transforme sua prática clínica com dados

Aplique instrumentos validados, acompanhe a evolução dos seus pacientes e tome decisões baseadas em evidências. Tudo em um só lugar

14 dias grátis

Sem cartão

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

  • Tutoriais

  • Artigos

  • Checklist

  • Instrumentos

  • Ferramentas

Acompanhe as novidades do Blog

Fique por dentro dos novos artigos, guias práticos e novidades sobre MBC e prática clínica baseada em evidências.

Respeitamos sua privacidade. Sem spam!

Experimente grátis por 14 dias

Acesse a plataforma completa, sem cartão de crédito. Veja como o HumanTrack pode transformar sua prática clínica

Experimente grátis por 14 dias

Acesse a plataforma completa, sem cartão de crédito. Veja como o HumanTrack pode transformar sua prática clínica

Experimente grátis por 14 dias

Acesse a plataforma completa, sem cartão de crédito. Veja como o HumanTrack pode transformar sua prática clínica