CFM cria regra para uso de IA na medicina. Saiba o que muda
Nova norma define que inteligência artificial só pode apoiar decisões clínicas e garante ao paciente direito de recusar o uso da tecnologia
atualizado
Compartilhar notícia

O Conselho Federal de Medicina (CFM) publicou a primeira norma específica para o uso de inteligência artificial (IA) na prática médica no Brasil. A resolução estabelece que a tecnologia pode ser utilizada como ferramenta de apoio, mas não pode substituir o julgamento clínico do profissional.
A medida foi publicada no Diário Oficial da União desta sexta-feira (27/2) e deve entrar em vigor em 180 dias.
O objetivo é definir parâmetros éticos e técnicos para a incorporação de sistemas de inteligência artificial no atendimento em saúde, diante do crescimento de ferramentas com a tecnologia em hospitais, clínicas e centros de pesquisa.
Pelas novas regras, a responsabilidade por diagnósticos, prognósticos e decisões terapêuticas continua sendo exclusivamente do médico. Mesmo quando houver apoio de sistemas automatizados, a decisão final precisa ser tomada por um profissional habilitado.
IA como ferramenta de apoio
A norma deixa claro que a inteligência artificial pode auxiliar diferentes atividades na área da saúde, como análise de dados, apoio ao diagnóstico, organização de serviços e pesquisa científica. Ainda assim, os sistemas não podem limitar a autonomia do médico nem impor recomendações obrigatórias.
Segundo o texto, as sugestões apresentadas pelos sistemas devem sempre ser avaliadas criticamente pelo profissional. O médico também não pode delegar à tecnologia a comunicação direta de diagnósticos ou orientações terapêuticas ao paciente.
Outro ponto previsto é o direito de informação. O paciente deve ser avisado quando a inteligência artificial tiver papel relevante em seu atendimento e poderá optar por não autorizar o uso da tecnologia.
A resolução também determina que o uso dessas ferramentas seja registrado no prontuário, garantindo transparência no processo de decisão clínica.

Regras para hospitais e classificação de risco
O documento cria ainda uma classificação para os sistemas de inteligência artificial utilizados na medicina. As tecnologias deverão ser enquadradas em quatro níveis de risco, que variam de baixo a inaceitável, considerando fatores como impacto na saúde, sensibilidade dos dados utilizados, grau de autonomia do sistema e criticidade do contexto clínico.
Antes de adotar essas soluções, instituições públicas e privadas deverão realizar uma avaliação prévia dos sistemas. Hospitais e centros de saúde que desenvolvem ou utilizam ferramentas próprias também precisarão instituir uma comissão responsável por acompanhar o uso da tecnologia.
Esse grupo terá a função de monitorar os sistemas, avaliar riscos, garantir o uso ético e acompanhar eventuais falhas ou problemas.
A norma também reforça a necessidade de seguir a Lei Geral de Proteção de Dados (LGPD), especialmente no uso de informações sensíveis para treinamento ou validação de modelos de inteligência artificial.
