ChatGPT vai parar de dar conselhos médicos? OpenAI desmente boato
Ferramenta segue respondendo normalmente os usuários sobre temas de saúde, direito, entre outros assuntos
atualizado
Compartilhar notícia

Publicações recentes nas redes sociais espalharam a informação de que o ChatGPT, sistema de inteligência artificial da OpenAI, teria deixado de oferecer conselhos médicos e jurídicos. A empresa, no entanto, negou o boato e afirmou que não houve qualquer mudança no funcionamento da ferramenta.
A confusão surgiu após internautas interpretarem de forma incorreta uma atualização nas políticas de uso da OpenAI, publicada na última quarta-feira (29/10).
A nova versão do documento lista uma série de usos proibidos da inteligência artificial, entre eles o “fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado”.
De acordo com o documento publicado pela OpenAI, essa regra não é nova — ela já constava nas políticas anteriores, divulgadas em janeiro deste ano — e serve apenas para reforçar que o ChatGPT não deve ser utilizado como substituto de um profissional habilitado, mas sim como um recurso de apoio à compreensão de informações complexas.
O esclarecimento foi feito por Karan Singhal, chefe de IA em saúde da empresa, em uma publicação na rede social X. Ele escreveu:
“Não é verdade. Apesar das especulações, esta não é uma mudança recente em nossos termos. O comportamento do modelo permanece inalterado. O ChatGPT nunca substituiu o aconselhamento profissional, mas continuará sendo um excelente recurso para ajudar as pessoas a compreenderem informações jurídicas e de saúde”.
Not true. Despite speculation, this is not a new change to our terms. Model behavior remains unchanged. ChatGPT has never been a substitute for professional advice, but it will continue to be a great resource to help people understand legal and health information. https://t.co/fCCCwXGrJv
— Karan Singhal (@thekaransinghal) November 3, 2025
Para o oncologista Rafael Botan, especialista em inteligência artificial, a ferramenta pode ser útil como apoio educacional, desde que o usuário saiba interpretar corretamente suas respostas.
“Na prática clínica, vejo o ChatGPT como um suporte interessante, ajudando o paciente a compreender termos médicos, exames e condutas gerais. Mas é essencial lembrar que informações críticas devem sempre ter sua fonte confirmada. Ela tem valor como recurso complementar, mas não substitui o julgamento individualizado de um profissional”, considera.
Segundo Botan, os melhores usos da inteligência artificial por pacientes são em situações pontuais — como entender sintomas inespecíficos, termos técnicos ou quando buscar atendimento. Mas, o risco está em o paciente interpretar uma resposta genérica como um diagnóstico.
“A IA pode parecer convincente, mas carece de contexto clínico e histórico. Quando erra, erra muito convincentemente, e isso é perigoso”, alerta o médico.
Para ele, a responsabilidade do uso é sempre de quem busca esse tipo de informação, mas reforça que a ferramenta oferece informação, não orientação médica. E que a diferença está no vínculo: a orientação profissional e o cuidado humano.
O especialista em comunicação digital Gabriel Goerhing acrescenta que o caso evidencia a importância da educação digital e da transparência no uso dessas ferramentas.
“Quando uma empresa como a OpenAI reconhece seus limites, ela demonstra responsabilidade e compromisso ético. Isso reforça a ideia de que a IA deve atuar como apoio, não como substituto de especialistas humanos”, afirma.
Até a publicação desta reportagem, a OpenAI continua respondendo normalmente aos usuários sobre questões médicas e jurídicas e reforça na sua última atualização que não é uma plataforma de diagnósticos ou consultoria profissional.
Siga a editoria de Saúde e Ciência no Instagram e fique por dentro de tudo sobre o assunto!
