A adoção de sistemas de inteligência artificial em procedimentos cirúrgicos tem sido acompanhada por um aumento no número de registros de falhas, lesões em pacientes e ações judiciais nos Estados Unidos. Informações da Administração de Alimentos e Medicamentos (FDA) e uma análise da agência Reuters indicam que a expansão da tecnologia ocorre em ritmo mais acelerado do que a capacidade de fiscalização dos órgãos reguladores.
Em 2021, a empresa Acclarent, então pertencente à Johnson & Johnson, anunciou a incorporação de um sistema de aprendizado de máquina ao equipamento de navegação cirúrgica TruDi, utilizado principalmente em cirurgias para tratamento de sinusite crônica. O dispositivo já era comercializado desde 2018.
Antes da integração da inteligência artificial, a FDA havia recebido sete notificações não confirmadas de mau funcionamento e um relato de lesão. Após a atualização do software, o número de registros subiu para pelo menos 100 notificações envolvendo falhas técnicas e eventos adversos.
Aumento de incidentes
De acordo com dados encaminhados à FDA, ao menos dez pacientes ficaram feridos entre o final de 2021 e novembro de 2025 em procedimentos realizados com auxílio do TruDi. A maior parte dos relatos aponta erros na localização dos instrumentos cirúrgicos durante as operações.
Entre os casos documentados estão vazamentos de líquido cefalorraquidiano, perfuração da base do crânio, lesões em artérias e dois episódios de AVC. Em situações mais graves, os pacientes precisaram ser internados em unidades de terapia intensiva e passaram por cirurgias adicionais.
Os registros enviados à FDA fazem parte de um sistema de notificação que reúne informações de hospitais, médicos, fabricantes e pacientes. A agência informa que esses dados não têm como objetivo estabelecer causalidade direta, mas servem para monitoramento de riscos.
Processos judiciais
Dois pacientes que sofreram AVC entraram com ações judiciais no Texas contra fabricantes e operadores do sistema. Em uma das petições, os advogados afirmam que o software teria fornecido informações incorretas durante o procedimento.
Em um dos processos, consta a afirmação: “O produto era mais seguro antes da incorporação da inteligência artificial do que após as modificações no software”.
A Reuters informou que não conseguiu confirmar de forma independente as alegações contidas nos processos, que seguem em tramitação judicial.
Posicionamento das empresas
A Johnson & Johnson declarou que não é mais responsável pelo equipamento, após a venda da Acclarent para a Integra LifeSciences em 2024. A Integra informou que os relatórios da FDA indicam apenas que o sistema estava em uso no momento dos incidentes e que não há provas de relação direta entre a IA e as lesões.
Em nota, a empresa afirmou que realiza atualizações constantes, treinamentos para profissionais de saúde e revisões técnicas dos equipamentos.
Expansão da IA na saúde
Os casos envolvendo o TruDi fazem parte de um cenário mais amplo de crescimento do uso da inteligência artificial na medicina. Segundo dados oficiais, pelo menos 1.357 dispositivos médicos com IA foram autorizados pela FDA até 2025, número que dobrou em relação a 2022.
Esses sistemas são utilizados em áreas como:
- Radiologia e análise de imagens;
- Monitoramento cardíaco;
- Diagnóstico precoce de câncer;
- Apoio a decisões clínicas;
- Cirurgias guiadas por computador.
Fabricantes afirmam que a tecnologia pode reduzir erros humanos, acelerar diagnósticos e ampliar o acesso a tratamentos especializados.
Outros dispositivos sob investigação
Além do TruDi, a FDA recebeu relatos envolvendo dezenas de equipamentos com inteligência artificial. Entre eles:
- Monitores cardíacos que teriam ignorado batimentos irregulares;
- Sistemas de ultrassom que identificaram incorretamente órgãos fetais;
- Softwares de análise radiológica que geraram falsos positivos.
Esses casos motivaram investigações internas e revisões técnicas por parte dos fabricantes.
Estudos e recalls
Pesquisa conduzida por universidades Johns Hopkins, Georgetown e Yale, publicada no JAMA Health Forum em agosto, identificou que 60 dispositivos médicos com IA estiveram relacionados a 182 recalls.
Segundo o estudo, 43% dos recalls ocorreram em menos de um ano após a autorização pela FDA. A taxa é cerca de duas vezes maior do que a registrada para dispositivos tradicionais aprovados sob regras semelhantes.
Os recalls envolvem problemas como falhas de software, imprecisão nos resultados, riscos de segurança e erros de funcionamento.
Desafios para a regulação
Especialistas ouvidos pela Reuters apontam que a FDA enfrenta dificuldades para acompanhar o crescimento do setor. A agência perdeu profissionais especializados nos últimos anos, enquanto o número de pedidos de aprovação aumentou.
Um porta-voz do Departamento de Saúde e Serviços Humanos dos EUA informou que o governo trabalha para reforçar equipes técnicas, ampliar sistemas de monitoramento e atualizar normas regulatórias.
Atualmente, parte das autorizações ocorre por meio de processos acelerados, o que, segundo pesquisadores, pode limitar avaliações de longo prazo.
Uso de chatbots e autodiagnóstico
Além dos dispositivos físicos, a inteligência artificial generativa passou a ser utilizada em plataformas digitais voltadas à saúde. Médicos usam esses sistemas para redigir relatórios e organizar prontuários.
Por outro lado, pacientes recorrem a chatbots para buscar diagnósticos, interpretar exames e questionar recomendações médicas. Profissionais alertam que o uso sem supervisão pode levar a atrasos no tratamento ou decisões inadequadas.
Histórico da tecnologia
A aplicação da IA na medicina começou ainda nos anos 1990. Em 1995, a FDA aprovou os primeiros sistemas baseados em reconhecimento de padrões para rastreamento de câncer cervical.
Atualmente, a tecnologia utiliza modelos de aprendizado de máquina e aprendizado profundo, treinados com grandes volumes de dados clínicos e imagens médicas.
Esses sistemas são constantemente atualizados, o que cria desafios adicionais para fiscalização, já que mudanças no software podem alterar o desempenho dos equipamentos após a aprovação.
Caso de Erin Ralph
Um dos casos mais citados envolve Erin Ralph, submetida a uma sinuplastia em junho de 2022, em um hospital de Fort Worth, no Texas. O procedimento utilizou o sistema TruDi para orientar o posicionamento dos instrumentos.
Segundo o processo, o software teria indicado uma localização incorreta, levando à lesão da artéria carótida. Ralph sofreu um AVC, ficou internada por cinco dias na UTI e precisou passar por cirurgia para aliviar o inchaço cerebral.
Em entrevista a um blog sobre vítimas de AVC, mais de um ano depois, ela afirmou: “Ainda estou fazendo fisioterapia. É difícil andar sem uma órtese e recuperar os movimentos do meu braço esquerdo”.
Debate sobre segurança
Especialistas defendem que a inteligência artificial deve ser vista como ferramenta de apoio, não substituta da decisão médica. Associações médicas pedem:
- Mais testes clínicos antes da liberação;
- Monitoramento contínuo após a aprovação;
- Transparência nos algoritmos;
- Treinamento obrigatório para profissionais.
Enquanto isso, fabricantes seguem investindo no setor, impulsionados pela demanda global por soluções digitais na saúde.
Com informações da Reuters*
Por Haliandro Furtado, da redação da Jovem Pan News Manaus






