O Google retirou discretamente alguns resumos de saúde gerados por IA, ao mesmo tempo em que a indústria aparentemente está correndo para incorporar a IA na saúde. A mudança ocorreu depois que o The Guardian descobriu que algumas das informações fornecidas pelo recurso eram enganosas.
O Guardião relatado Domingo que o Google removeu os resumos de pesquisa gerados por IA para as consultas “qual é o intervalo regular para exames de sangue do fígado” e “qual é o intervalo regular para testes de função hepática”. Na manhã de terça-feira, essas pesquisas não fornecem mais uma visão geral da IA no topo da página. Em vez disso, os usuários veem pequenos trechos extraídos dos resultados de pesquisa tradicionais.
De acordo com o The Guardian, as visões gerais da IA para essas pesquisas relacionadas ao fígado e outras “forneceram informações de saúde imprecisas e colocaram as pessoas em risco de danos”. Por exemplo, os resumos alegadamente fornecidos aos investigadores de testes hepáticos incluíam “muitos números, pouco contexto e nenhuma contabilização da nacionalidade, sexo, etnia ou idade dos pacientes”.
O Guardian informou que alguns especialistas disseram que estes resultados podem ser perigosos. Por exemplo, alguém com doença hepática pode atrasar o acompanhamento se confiar em uma definição gerada por IA do que é regular.
“Investimos significativamente na qualidade das visões gerais de IA, especialmente para tópicos como saúde, e a grande maioria fornece informações precisas”, disse um porta-voz do Google ao Gizmodo em comunicado enviado por e-mail. “Nossa equipe interna de médicos revisou o que foi compartilhado conosco e descobriu que, em muitos casos, as informações não eram imprecisas e também eram apoiadas por websites de alta qualidade. Nos casos em que as visões gerais de IA perdem algum contexto, trabalhamos para fazer melhorias amplas e também tomamos medidas de acordo com nossas políticas quando apropriado.”
As remoções ocorrem num momento em que mais pessoas do que nunca recorrem à IA em busca de respostas sobre a sua saúde, e a indústria está a tomar conhecimento.
A OpenAI, empresa por trás do ChatGPT, disse na semana passada que cerca de um quarto de seus 800 milhões de usuários regulares enviam solicitações relacionadas à saúde todas as semanas, com mais de 40 milhões fazendo isso diariamente.
Dias depois, a OpenAI lançou o ChatGPT Well being, uma experiência focada na saúde que pode se conectar aos registros médicos, aplicativos de bem-estar e dispositivos vestíveis dos usuários. E pouco depois disso, a empresa anunciou que havia adquirido o startup de saúde Torchque rastreia registros médicos, incluindo resultados de laboratório, registros de consultas médicas e medicamentos.
Enquanto isso, a empresa rival de IA Anthropic não fica muito atrás. Na segunda-feira, a empresa anunciou um novo conjunto de ferramentas de IA que permite que prestadores de serviços de saúde, seguradoras e pacientes usem seu chatbot Claude para fins médicos.
Para hospitais e seguradoras, a Anthropic afirma que as ferramentas podem ajudar a agilizar tarefas como solicitações de autorização prévia e comunicações com pacientes. Para os pacientes, Claude pode ter acesso a resultados laboratoriais e registros de saúde para gerar resumos e explicações em linguagem simples.
À medida que a IA avança nos cuidados de saúde, mesmo pequenos erros ou falta de contexto podem ter consequências significativas para os pacientes. Resta saber se essas empresas estão preparadas para isso.













