Open navigation
Procurar
Procurar
Áreas de Prática
Insights

Leia as últimas novidades e tendências jurídicas.

Conheça todos os conteúdos
Escritórios
FAS Advogados
Insights
Tipos de insights
Sobre o FAS
Recrutamento
Publicação 02 mar. 2026 · Brasil

Software as a Medical Device e IA: até onde a Saúde pode ser automatizada?

6º episódio da série "Dilemas Jurídicos da IA"

14 min de leitura

Leia nesta página

A incorporação de tecnologias digitais no setor de saúde deixou de ser uma tendência futura para se tornar uma realidade cotidiana. A aplicação da inteligência artificial (IA) na saúde, especialmente para aprimorar processo de apoio ao diagnóstico médico, é uma das áreas mais promissoras da atualidade.

Entre essas inovações, destaca-se o Software as a Medical Device (SaMD), conceito consagrado internacionalmente para designar softwares que, de forma autônoma ou semiautônoma, desempenham funções médicas, como prevenção, diagnóstico, monitoramento ou tratamento de doenças. 

Exemplos cada vez mais comuns de SaMD incluem sistemas de IA capazes de analisar exames de imagem e sugerir diagnósticos, algoritmos que estimam o risco de eventos graves como acidente vascular cerebral (AVC) a partir do histórico clínico do paciente, ou mesmo a integração com dispositivos vestíveis (wearables) e dispositivos Internet das Coisas Médicas (IoMT), que permitem o acompanhamento contínuo da saúde.

Diferentemente de softwares meramente administrativos ou de apoio operacional, o SaMD tem o potencial de influenciar diretamente decisões clínicas e, consequentemente, impactar na saúde e na segurança do paciente. No contexto da inteligência artificial, o SaMD frequentemente utiliza técnicas de machine learning ou deep learning, aprendendo a partir de grandes volumes de dados clínicos. 

Essas soluções prometem ganhos relevantes de eficiência, precisão diagnóstica e ampliação do acesso à saúde. Entre os principais benefícios destacam-se a agilidade nos diagnósticos, o suporte a decisões clínicas e a capacidade preditiva. 

Na opinião de André Chidichimo de França, Diretor Jurídico, Compliance, Privacidade e Proteção de Dados, Governança Corporativa e Gestão de Riscos da Odontoprev, empresa líder em planos odontológicos no Brasil, justamente, os principais impactos do uso de soluções de IA no apoio ao diagnóstico e à tomada de decisão clínica concentram-se no ganho de consistência, escala e foco clínico.

André pontua, ainda, que a IA pode reduzir vieses humanos, especialmente em análises repetitivas ou com grandes volumes de dados, e melhorar a qualidade das decisões, fornecendo evidências quantitativas que complementam o julgamento técnico dos especialistas. Como apoio ao diagnóstico, principalmente em exames de imagem, contribui para diminuir erros e detectar padrões que poderiam passar despercebidos.

Contudo, essas soluções também levantam questões jurídicas e éticas complexas, especialmente no que se refere à responsabilidade profissional por eventuais erros, à autonomia do profissional da saúde e à adequada integração dessas ferramentas à prática clínica.

Mais do que desafios pontuais, essas questões revelam um dilema jurídico ainda em formação sobre os limites da automação na saúde e sobre quem, afinal, deve responder por decisões cada vez mais mediadas por sistemas inteligentes.

Não é à toa que o Projeto de Lei nº 2.338/2023, que dispõe sobre o uso da IA no Brasil, classifica como de alto risco os sistemas de IA aplicados à área da saúde que auxiliam diagnósticos ou procedimentos médicos quando houver risco relevante á integridade física ou mental das pessoas, adicionando um regime jurídico mais rigoroso. 

Quem responde pelo erro médico?

Um dos pontos mais sensíveis do uso de SaMD é a definição de responsabilidade nas ocorrências de erro na conduta profissional e/ou por falhas na assistência à saúde. A pergunta central é: quem responde pelos danos decorrentes de (mal) diagnóstico fornecido com o uso de IA?

Lucas Morelli, Gerente Jurídico do dr. consulta, plataforma de gestão de saúde que oferece consultas médicas, exames e procedimentos com preços acessíveis, traz uma preocupação: 

“Do ponto de vista da responsabilidade civil, esse é um grande problema. Quando falamos de um médico usando a IA como uma ferramenta de diagnóstico, na verdade estamos inserindo um polo de responsabilidade, com possível imputação. O médico é o responsável pelo diagnóstico e pela informação que ele visualiza. Ele é o responsável final por essa informação até ela chegar ao paciente, ao consumidor final. Então, isso é extremamente importante, porque, se não houver esse cuidado, pode-se acabar direcionando a responsabilidade civil para a IA e responsabilizando-se uma empresa que, muitas vezes, pode nem ter condições de arcar com essa responsabilidade e que pode não ter um responsável técnico (no âmbito médico) definido, além de não contar com regulamentação específica.”

Lucas Morelli | Gerente Jurídico no dr. consulta

Em regra, o profissional da saúde continua sendo o responsável direto pelo atendimento ao paciente. Mesmo quando utiliza ferramentas de apoio à decisão clínica, espera-se que ele exerça seu juízo profissional, avaliando criticamente as sugestões fornecidas pelo software. Assim, por exemplo, se um médico adere de forma automática e acrítica a uma sugestão incorreta da IA, ignorando sinais clínicos relevantes ou protocolos consagrados, poderá responder por erro médico. E a lógica se mantém para qualquer profissional da saúde.

Por outro lado, exigir que o profissional compreenda integralmente o funcionamento interno de algoritmos complexos pode ser irrealista. Surge, então, uma tensão entre o dever de diligência profissional e os limites práticos de compreensão técnica, especialmente diante de sistemas de IA classificados como black boxes – quando processos internos de tomada de decisão são obscuros, opacos ou difíceis de compreender, mesmo para os seus criadores.

Não obstante, os desenvolvedores e fornecedores do SaMD podem ser responsabilizados quando um dano decorrer de falhas do software, como erros de programação, bases de dados enviesadas ou insuficientes, ou, ainda, da ausência de validação clínica adequada quanto às definições dos parâmetros ou limitações do sistema.

Em relação a essa preocupação, Lucas Morelli destaca: 

“A grande preocupação hoje para quem desenvolve a IA é saber como colocar balizas éticas e antidiscriminatórias, com objeto de prever um algoritmo não discriminador e a qualidade do dado imputado na IA. O maior problema não é a IA alucinar em cima dos dados que ela recebe, mas a qualidade do dado que é imputado na IA. Essa é a grande complexidade quando falamos do diagnóstico e uso de IA para tomada de decisão clínica.”

Lucas Morelli | Gerente Jurídico no dr. consulta

No entendimento de André Chidichimo de França: 

“Consideramos a transparência como o principal pilar para construir confiança em contextos clínicos e assistenciais, pois permite que profissionais e instituições avaliem riscos, validem resultados e assumam responsabilidade com segurança. Sistemas baseados em machine learning ou conectados à internet precisam ser totalmente auditáveis e transparentes sobre o processamento de dados de saúde, reforçando confiança, conformidade legal e uso ético da tecnologia no cuidado.”

André Chidichimo de França | Diretor Jurídico na Odontoprev

Riscos à autonomia médica e do profissional da saúde

No mesmo sentido, Lucas Morelli reforça que a transparência dos fornecedores é um fator decisivo- com certeza, o principal - para gerar confiança no uso de soluções. As informações devem ser auditáveis, sendo possível entender qual a qualidade dos dados, sua origem se ele é anonimizado ou não, se os dados da própria empresa também estão sendo compartilhados e como, além, claro, de como que é feita a tomada de decisão de quais informações a IA usa e de que forma o algoritmo pensou para trazer aquele resultado. Tudo isso é essencial. 

Lucas ainda pontua: “O médico precisa saber se a decisão da IA de um possível diagnóstico de um paciente, que está numa condição específica, vem de estatística ou vem, de fato, de alguma condição específica do paciente.” 

A introdução do SaMD na prática clínica também suscita preocupações quanto à autonomia profissional do indivíduo. Sistemas altamente sofisticados, especialmente aqueles que demonstram taxas de acerto elevadas, podem induzir uma confiança excessiva em suas recomendações, reduzindo o espaço para o julgamento clínico individual.

Esse fenômeno, por vezes denominado “viés da automação” (automation bias), ocorre quando profissionais tendem a aceitar decisões automatizadas mesmo diante de indícios de erro. A longo prazo, existe o risco de empobrecimento da capacidade crítica do profissional, que passa a atuar mais como validador das decisões da máquina do que como agente central do cuidado.

A IA não substitui o julgamento clínico humano, mas o complementa e potencializa. É com esse objetivo que ela deve ser aplicada, pois a confiança na cadeia de cuidado em saúde só se mantém quando há transparência, ética e uma postura crítica sobre o impacto da tecnologia nas decisões clínicas.

Ainda que a inteligência artificial revele padrões não perceptíveis ao olhar humano, a decisão final deve caber ao profissional da saúde, que integra à análise clínica fatores contextuais, subjetivos e históricos inacessíveis à compreensão integral da tecnologia.

A introdução do SaMD na prática clínica também suscita preocupações quanto à autonomia profissional do indivíduo. Sistemas altamente sofisticados, especialmente aqueles que demonstram taxas de acerto elevadas, podem induzir uma confiança excessiva em suas recomendações, reduzindo o espaço para o julgamento clínico individual.

Esse fenômeno, por vezes denominado “viés da automação” (automation bias), ocorre quando profissionais tendem a aceitar decisões automatizadas mesmo diante de indícios de erro. A longo prazo, existe o risco de empobrecimento da capacidade crítica do profissional, que passa a atuar mais como validador das decisões da máquina do que como agente central do cuidado.

A IA não substitui o julgamento clínico humano, mas o complementa e potencializa. É com esse objetivo que ela deve ser aplicada, pois a confiança na cadeia de cuidado em saúde só se mantém quando há transparência, ética e uma postura crítica sobre o impacto da tecnologia nas decisões clínicas.

Ainda que a inteligência artificial revele padrões não perceptíveis ao olhar humano, a decisão final deve caber ao profissional da saúde, que integra à análise clínica fatores contextuais, subjetivos e históricos inacessíveis à compreensão integral da tecnologia.

Na experiência de André Chidichimo de França:

 

“Na prática, a IA não deve emitir diagnósticos nem substituir a necessária análise e conclusão clínica do profissional, mas permite identificar riscos, padrões atípicos e comportamentos anômalos. O uso da IA é valioso quando atua como apoio à tomada de decisão e não como substituto da análise e da atuação clínica dos profissionais. Nada obsta, contudo, que a IA seja um instrumento (e muito importante) para a tomada de decisão, não substituindo ou se sobrepondo à decisão dos profissionais. Quando aplicada de forma automática, a inteligência artificial pode ampliar riscos importantes, como a descontextualização clínica (quando os dados são lidos sem considerar a realidade do paciente), injustiças algorítmicas (especialmente se o modelo estiver mal calibrado) e decisões pouco explicáveis, difíceis de sustentar tanto do ponto de vista clínico quanto jurídico. Assim, a decisão final, incluindo a validação do resultado apresentado pela IA e sua aplicação clínica, deve sempre permanecer com o profissional, que deve ter autonomia e julgamento necessários para conduzir o paciente ao desfecho mais adequado.”

André Chidichimo de França | Diretor Jurídico na Odontoprev

Na opinião de Lucas Morelli, Gerente Jurídico do dr. consulta: 

“O retorno da IA é um retorno automatizado, que funciona na base de estatística e não na base de um tratamento humanizado para fornecer algo sob medida para aquele paciente. É preciso tomar cuidado porque a IA é uma ótima estatística de informações, é um ótimo calculador de probabilidade, mas ela não faz diagnóstico propriamente dito. Existem informações que só o médico vai saber interpretar de uma forma correta.”

Regulamentação setorial

Além de o Projeto de Lei nº 2.338/2023 mencionar expressamente os sistemas de IA aplicados à área da saúde que auxiliam diagnósticos ou procedimentos médicos, as entidades de classe têm se movimentado no sentido de criar uma regulamentação setorial específica. 

O Conselho Federal de Medicina (CFM), por exemplo, reconheceu a urgência do tema e, recentemente, em 11 de fevereiro de 2026, publicou a Resolução nº CFM Nº 2.454/2026, que normatiza o uso da inteligência artificial na medicina.

O objetivo é garantir que essas ferramentas sejam aplicadas, sempre em benefício dos pacientes, de forma segura, transparente, isonômica e ética, sem deixar de incentivar a inovação e a eficiência dos serviços – inclusive, entre os princípios que norteam a resolução, destacam-se o respeito à autonomia dos profissionais e das instituições médicas.Um ponto específico de transparência trazido pela Resolução é o dever do médico de informar ao paciente, de forma clara e acessível, quando modelos, sistemas e aplicações de IA forem utilizados como apoio relevante em seu cuidado, diagnóstico ou tratamento, além de registrar no prontuário do paciente o uso de sistemas de IA como apoio à decisão médica.

Em relação a responsabilidade do médico nesse uso, a Resolução prevê que o médico tem o direito de ser protegido contra responsabilização indevida por falhas atribuíveis exclusivamente a sistemas de IA, desde que comprovado o uso diligente, crítico e ético dessas ferramentas. No campo da responsabilidade ético-profissional, o médico permanece integralmente responsável pelos atos médicos por ele praticados mediante a utilização de modelos, sistemas e aplicações de IA.

Como pontua Lucas MorellI: “Na área médica já se aceitou que o médico é a ponte e só pode usar a IA como ferramenta. Esse é um ponto importante.”


Por outro lado, o Conselho Federal de Enfermagem (COFEN), o Conselho Federal de Odontologia (CFO) e outros Conselhos Federais do setor da saúde já se manifestaram publicamente sobre uso da IA, mas ainda sem qualquer regulamentação formal.

Na percepção de André Chidichimo o cenário regulatório brasileiro para o uso de inteligência artificial em saúde ainda está em fase de amadurecimento. Embora existam avanços importantes, ainda há desafios relevantes a serem superados para garantir segurança, ética e clareza de responsabilidades.

O posicionamento institucional dos Conselhos Federais do setor sinaliza que o uso de IA deve observar os princípios éticos já consolidados no exercício da medicina e reforça a importância de cautela na adoção de soluções de SaMD.Esse entendimento dialoga com os princípios internacionais estabelecidos pela Organização Mundial da Saúde (OMS) para o uso ético da inteligência artificial na saúde, que podem ser resumidos nos seguintes eixos:

  • Autonomia humana, assegurando que decisões médicas permaneçam sob controle humano, com proteção da privacidade, da confidencialidade e do consentimento informado.
  • Segurança, bem-estar e interesse público, exigindo validação, precisão e controle de qualidade dos sistemas de IA.
  • Transparência e explicabilidade, com documentação acessível sobre funcionamento, limites e finalidades dos algoritmos.
  • Responsabilidade e prestação de contas, mantendo agentes humanos e institucionais como responsáveis pelo uso da tecnologia e pelos danos eventualmente causados.
  • Inclusão e equidade, prevenindo vieses discriminatórios e ampliando o acesso equitativo às soluções de saúde.
  • Responsividade e sustentabilidade, com avaliação contínua, mitigação de impactos ambientais e atenção aos efeitos no trabalho em saúde.

Ainda, o relatório da OMS adverte contra superestimar os benefícios da inteligência artificial para a saúde, especialmente quando isso ocorre às custas de investimentos e estratégias essenciais para alcançar a cobertura universal de saúde. 

Na visão de Lucas Morelli, o cenário regulatório brasileiro foca muito na relação do paciente com AI e deixa de prever como a IA deve ser treinada e desenvolvida, esquecendo de regular uma parte muito importante, que são os parâmetros necessários para criação segura dessa IA. Isso gera no mercado, principalmente de saúde, uma insegurança com relação à aplicação de novas metodologias, principalmente na relação entre a empresa desenvolvedora da IA e a empresa de saúde. 

Caminhos para uma integração responsável

Para mitigar riscos e equilibrar inovação com segurança jurídica e ética, algumas medidas se mostram essenciais:

  • Clareza regulatória, com critérios bem definidos para validação, monitoramento e atualização de sistemas de SaMD.
  • Transparência e explicabilidade, na medida do possível, sobre o funcionamento, as limitações e os vieses dos algoritmos.
  • Treinamento adequado dos profissionais de saúde, focado no uso crítico e responsável da IA.
  • Definição contratual de responsabilidades, especialmente entre instituições de saúde e fornecedores de tecnologia.
  • Centralidade do paciente, assegurando que decisões automatizadas não substituam o cuidado individualizado.

Conclusão

O avanço do Software as a Medical Device, especialmente quando baseado em inteligência artificial, desloca fronteiras tradicionais do direito médico e da regulação da saúde. Ao influenciar de forma crescente diagnósticos, prognósticos e decisões clínicas, esses sistemas passam a ocupar um espaço intermediário entre ferramenta técnica e agente decisório, sem que o ordenamento jurídico tenha redefinido com clareza os limites dessa atuação.

Nesse cenário, a incorporação da IA a procedimentos de saúde não elimina a centralidade do profissional, mas também não preserva integralmente o modelo clássico de decisão clínica individual. A atribuição de responsabilidade, a autonomia profissional e a confiança na relação médico-paciente passam a depender de sistemas cujos processos internos são, em grande medida, opacos, probabilísticos e dinâmicos.

O dilema jurídico que emerge não se resume à pergunta sobre quem responde por um eventual erro médico, mas à própria capacidade do direito de lidar com uma saúde cada vez mais mediada por decisões automatizadas. Trata-se de uma tensão ainda aberta, que desafia categorias jurídicas consolidadas e exige reflexão contínua antes que a automação decisória se torne um elemento estrutural e irreversível da prática clínica.

Voltar ao topo Voltar ao topo