Uma matéria publicada no site MIT Tech Review, no dia 19 de setembro de 2025, revelou algo polêmico: terapeutas podem estar usando Inteligência Artificial (IA) sem o conhecimento de seus pacientes. Segundo a matéria, Declan, um estadunidense de 31 anos, estava em uma consulta remota com seu terapeuta, quando este pediu para desligar as câmeras, considerando a instabilidade da conexão naquele momento. De repente, o terapeuta, obviamente sem querer, começou a compartilhar sua tela com Declan, que foi surpreendido ao notar que todas as suas falas estavam sendo inseridas como prompts no ChatGPT.
A reação de Declan, apesar de ficar estarrecido, foi de “entrar na brincadeira”, ou seja, ele começou a colocar todas as respostas também como prompts do ChatGPT. O resultado: Declan antecipava as respostas do terapeuta, validando tudo o que o profissional da saúde falava. Na sessão seguinte, ao revelar o que havia acontecido na última, o terapeuta chorou, justificando que havia chegado a um impasse, então foi procurar respostas em outra fonte.
Usar ferramentas de IA para organizar ideias durante reuniões, seja lá qual for sua natureza, é uma prática comum já há alguns anos. Hoje, nas reuniões corporativas, é comum, com o consentimento dos presentes, gravar o áudio para depois extrair o texto e resumi-lo em formato de ata, que depois deve ser revisada e submetida à aprovação dos presentes.
Entretanto, o incidente de Declan vai além. O seu terapeuta não estava simplesmente organizando ideias, ele estava terceirizando as respostas para uma IA, que não tem sentimento algum, nem qualquer tipo de vínculo, seja emocional ou profissional com o paciente. Quando uma pessoa busca ajuda desse tipo, o que ela menos precisa é de repostas padronizadas, considerando que cada ser humano é um universo totalmente diferente.
Além da quebra de confiança e do sentimento de traição, essa prática pode colocar em risco informações sensíveis das pessoas, já que não há garantias de que os dados sejam devidamente protegidos contra explorações indevidas. Por mais que nomes e outros dados pessoais possam ser ocultos, ferramentas de IA podem revelar identidades por meio de complexos mecanismos de inferência.
No Brasil, a Lei Geral de Proteção de Dados (LGPD) classifica dados de saúde mental e informações psicológicas como dados sensíveis, exigindo consentimento explícito para o tratamento dessas informações. Ademais, a lei também exige medidas de transparência, segurança e, principalmente, finalidade, ou seja, a organização que for usar esses dados deve deixar claro qual é o real objetivo. Portanto, terapeutas que usam IA sem informar o paciente podem estar violando a LGPD.
Sam Altman, um dos fundadores da OpenAI, empresa criadora do ChatGPT, já alertou que não existe o mesmo sigilo amparado por lei entre médico-paciente, advogado-cliente ou terapeuta-paciente nas interações com chats de IA. Ele também destacou que, por falta de estrutura legal, sua empresa pode ser obrigada a disponibilizar registros das interações em processos judiciais.
Olhando para o incidente de Declan, ao afirmar que chegara a um impasse e foi buscar respostas em outra fonte, penso que o profissional assinou um atestado de incapacidade, deixando dúvidas sobre sua vocação para a profissão. Episódios como esse nos lembram que jamais devemos renunciar nossa responsabilidade, nem transferir para tecnologias nossa autonomia, nossa consciência e nossos sentimentos. Assim, o verdadeiro papel do ser humano no uso da IA deve ser o de guardião crítico, compreendendo que a ética deve sempre preceder a técnica.
Prof. Me. Jorge Luís Gregório
Docente e coordenador do curso superior de Tecnologia em Análise e Desenvolvimento de Sistemas - Fatec Jales