IA na medicina: o CFM acerta ao regulamentar o futuro

Resolução CFM nº 2.454/2026 representa um marco regulatório inédito ao disciplinar o uso da IA na prática médica brasileira, equilibrando inovação tecnológica com proteção de direitos fundamentais

Crédito: Divulgação

Em 11 de fevereiro de 2026, o Conselho Federal de Medicina publicou a Resolução nº 2.454, que normatiza o uso da inteligência artificial na medicina. A norma, com vacatio legis de 180 dias, inaugura no Brasil um arcabouço regulatório específico para a adoção de modelos, sistemas e aplicações de IA no ambiente médico. Trata-se de iniciativa oportuna e necessária diante da crescente incorporação de ferramentas algorítmicas em consultórios, hospitais e laboratórios de todo o país.

 

A resolução é extensa e detalhada, dividida em oito capítulos e três anexos, além de uma exposição de motivos que contextualiza suas razões. Ao analisá-la sob a perspectiva jurídica, é possível identificar avanços significativos em matéria de governança, proteção de dados, classificação de riscos e preservação da autonomia médica. A seguir, examino os principais pontos técnicos da norma e apresento um posicionamento sobre seus impactos.

 

O Anexo I da resolução traz um glossário robusto com vinte definições fundamentais. Distinguem-se, por exemplo, os conceitos de "modelo de IA" (o componente computacional baseado em arquiteturas algorítmicas e parâmetros treinados), "sistema de IA" (a plataforma que processa dados e gera resultados capazes de influenciar ambientes de saúde) e "aplicação de IA" (a utilização concreta desse sistema em contexto assistencial, pericial, educacional ou de gestão). A norma também define conceitos como "ciclo de vida", "avaliação preliminar de risco", "avaliação de impacto algorítmico", "viés discriminatório ilegal ou abusivo", "privacy by design", "privacy by default", "prompt", "auditabilidade", "explicabilidade" e "contestabilidade". Essa taxonomia é essencial para conferir segurança jurídica às relações entre médicos, instituições, desenvolvedores e pacientes.

 

O Capítulo II estabelece um equilíbrio entre direitos e deveres dos médicos. De um lado, o profissional tem o direito de utilizar ferramentas de IA como instrumento de apoio, de recusar sistemas sem validação científica e de preservar sua autonomia clínica. De outro, recai sobre ele o dever de manter-se como responsável final pelas decisões médicas, exercer julgamento crítico sobre as recomendações algorítmicas, registrar em prontuário o uso de IA e utilizar apenas sistemas que atendam às normas éticas e regulatórias vigentes. O Art. 5º merece destaque especial ao vedar a delegação à IA da comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem a devida mediação humana, além de garantir ao paciente o direito de recusa informada do uso dessas tecnologias.

 

A categorização de riscos prevista no Capítulo IV e no Anexo II adota uma abordagem gradativa, classificando as soluções de IA em quatro níveis: baixo, médio, alto e inaceitável. Soluções de baixo risco abrangem funções administrativas sem influência direta em diagnósticos, como agendamento de consultas ou gestão logística. No nível médio, enquadram-se sistemas que apoiam decisões clínicas, mas não as executam de forma autônoma, pressupondo que a intervenção do médico impeça desfechos lesivos. Já as soluções de alto risco compreendem aplicações que influenciam diretamente decisões médicas críticas ou executam ações automatizadas com consequências clínicas relevantes. O sistema de classificação dinâmica é um acerto: a resolução prevê que uma solução inicialmente classificada em determinado nível pode ser reclassificada caso mudanças tecnológicas ou contextuais alterem seu perfil de risco.

 

No campo da governança, o Capítulo V e o Anexo III impõem às instituições médicas a criação de uma Comissão de IA e Telemedicina, sob coordenação médica e subordinada à diretoria técnica. Essa comissão é responsável por garantir transparência, prevenção de vieses discriminatórios, interoperabilidade, gestão do ciclo de vida dos sistemas e acesso de órgãos de controle. A exigência de relatórios periódicos em linguagem acessível e a preferência por soluções de código aberto ou customizáveis representam uma visão progressista que alia transparência institucional à adaptabilidade local.

 

A proteção de dados pessoais recebe tratamento destacado nos Capítulos III e VI. A resolução determina que todo tratamento de dados em sistemas de IA deve observar rigorosamente a Lei Geral de Proteção de Dados Pessoais (LGPD), com atenção especial aos dados sensíveis de saúde. Os conceitos de privacy by design e privacy by default, expressamente definidos no Anexo I, indicam que a privacidade deve ser incorporada desde a concepção do sistema e configurada como padrão, sem exigir ações adicionais do usuário. É vedado ao médico utilizar sistemas que não garantam padrões mínimos de segurança da informação.

 

O Capítulo VII reforça a centralidade da autonomia médica. O Art. 18 estabelece que os sistemas de IA não poderão, em nenhum momento, restringir ou substituir a autoridade final do médico. A decisão sobre diagnóstico, prognóstico, prescrição ou qualquer ato médico caberá sempre ao profissional, que pode acolher ou rejeitar as sugestões da IA conforme seu julgamento. Além disso, nenhum médico será penalizado por optar em não seguir a orientação de um sistema de IA, desde que atue de acordo com os preceitos técnicos e éticos. As instituições ficam proibidas de impor metas ou políticas que subordinem as condutas dos médicos às recomendações algorítmicas.

 

No que tange à responsabilidade, o Art. 7º é cristalino: o médico permanece integralmente responsável pelos atos médicos praticados mediante a utilização de IA. A utilização dessas ferramentas não o exime do cumprimento do Código de Ética Médica. Contudo, o Art. 3º, inciso V, prevê proteção contra responsabilização indevida por falhas atribuíveis exclusivamente ao sistema de IA, desde que comprovado o uso diligente, crítico e ético da ferramenta. Essa distinção é juridicamente relevante, pois cria uma zona de segurança para o profissional que age com a devida diligência, ao mesmo tempo em que preserva a responsabilização quando há negligência ou imprudência.

 

A Resolução CFM nº 2.454/2026 representa, em minha análise, um avanço notável para a regulação da inteligência artificial no Brasil. Em um cenário global onde legislações como o AI Act europeu buscam disciplinar o uso da IA em setores críticos, o CFM demonstra protagonismo ao estabelecer parâmetros claros para o setor de saúde, historicamente marcado pela assimetria de informações entre profissionais e pacientes.

 

Os méritos da norma são múltiplos. Primeiro, ela reconhece a inevitabilidade da transformação digital na medicina sem abrir mão da primazia do ser humano na tomada de decisão clínica. Segundo, ao adotar uma classificação de riscos dinâmica e proporcional, evita tanto a rigidez excessiva que poderia inibir a inovação quanto a permissividade que colocaria pacientes em perigo. Terceiro, a exigência de transparência, explicabilidade e contestabilidade confere ao paciente mecanismos concretos para compreender e questionar decisões que afetem sua saúde. Quarto, a integração com a LGPD e a adoção dos princípios de privacy by design e privacy by default demonstram maturidade regulatória ao dialogar com o ecossistema normativo já existente.

 

É certo que desafios permanecerão. A fiscalização efetiva por parte dos Conselhos Regionais de Medicina demandará capacitação técnica especializada. A interoperabilidade entre sistemas de diferentes instituições exigirá cooperação e investimento. E o ritmo acelerado da evolução tecnológica certamente pressionará por atualizações futuras. Ainda assim, a resolução estabelece alicerces sólidos e princípios suficientemente flexíveis para acomodar essas transformações.

 

Em síntese, a Resolução CFM nº 2.454/2026 é uma norma de seu tempo: moderna sem ser imprudente, protetiva sem ser restritiva, e técnica sem ser inacessível. Ela posiciona o Brasil entre as nações que compreendem que a regulação da inteligência artificial não é um obstáculo à inovação, mas sim condição indispensável para que o progresso tecnológico se realize em benefício da sociedade.

 

Gustavo Bottós é pai, casado, advogado graduado em Direito pela Universidade Federal do Mato Grosso do Sul (UFMS); reside e advoga em Palmas/TO desde 2006. Pós-graduado em Direito Público, Direito Civil e Direito Processual Civil. Ocupou, dentre outros, os cargos de Secretário de Desenvolvimento Urbano e Habitação de Palmas (2012); Subsecretário de Estado da Saúde do Tocantins (2015); Secretário-executivo de Desenvolvimento Urbano e Serviços Regionais de Palmas (2020/2021); Secretário de Desenvolvimento Econômico e Emprego de Palmas (2022), Secretário de Governo e Relações Institucionais de Palmas (2024) e Secretário da Casa Civil de Palmas (2023/2024).

Comentários (0)