Início Tecnologia Google obtém algumas visões gerais de IA relacionadas à saúde à medida...

Google obtém algumas visões gerais de IA relacionadas à saúde à medida que a indústria aposta tudo na saúde

11
0

O Google retirou discretamente alguns resumos de saúde gerados por IA, ao mesmo tempo em que a indústria aparentemente está correndo para incorporar a IA na saúde. A mudança ocorreu depois que o The Guardian descobriu que algumas das informações fornecidas pelo recurso eram enganosas.

O Guardião relatado Domingo que o Google removeu os resumos de pesquisa gerados por IA para as consultas “qual é o intervalo regular para exames de sangue do fígado” e “qual é o intervalo regular para testes de função hepática”. Na manhã de terça-feira, essas pesquisas não fornecem mais uma visão geral da IA ​​no topo da página. Em vez disso, os usuários veem pequenos trechos extraídos dos resultados de pesquisa tradicionais.

De acordo com o The Guardian, as visões gerais da IA ​​para essas pesquisas relacionadas ao fígado e outras “forneceram informações de saúde imprecisas e colocaram as pessoas em risco de danos”. Por exemplo, os resumos alegadamente fornecidos aos investigadores de testes hepáticos incluíam “muitos números, pouco contexto e nenhuma contabilização da nacionalidade, sexo, etnia ou idade dos pacientes”.

O Guardian informou que alguns especialistas disseram que estes resultados podem ser perigosos. Por exemplo, alguém com doença hepática pode atrasar o acompanhamento se confiar em uma definição gerada por IA do que é regular.

“Investimos significativamente na qualidade das visões gerais de IA, especialmente para tópicos como saúde, e a grande maioria fornece informações precisas”, disse um porta-voz do Google ao Gizmodo em comunicado enviado por e-mail. “Nossa equipe interna de médicos revisou o que foi compartilhado conosco e descobriu que, em muitos casos, as informações não eram imprecisas e também eram apoiadas por websites de alta qualidade. Nos casos em que as visões gerais de IA perdem algum contexto, trabalhamos para fazer melhorias amplas e também tomamos medidas de acordo com nossas políticas quando apropriado.”

As remoções ocorrem num momento em que mais pessoas do que nunca recorrem à IA em busca de respostas sobre a sua saúde, e a indústria está a tomar conhecimento.

A OpenAI, empresa por trás do ChatGPT, disse na semana passada que cerca de um quarto de seus 800 milhões de usuários regulares enviam solicitações relacionadas à saúde todas as semanas, com mais de 40 milhões fazendo isso diariamente.

Dias depois, a OpenAI lançou o ChatGPT Well being, uma experiência focada na saúde que pode se conectar aos registros médicos, aplicativos de bem-estar e dispositivos vestíveis dos usuários. E pouco depois disso, a empresa anunciou que havia adquirido o startup de saúde Torchque rastreia registros médicos, incluindo resultados de laboratório, registros de consultas médicas e medicamentos.

Enquanto isso, a empresa rival de IA Anthropic não fica muito atrás. Na segunda-feira, a empresa anunciou um novo conjunto de ferramentas de IA que permite que prestadores de serviços de saúde, seguradoras e pacientes usem seu chatbot Claude para fins médicos.

Para hospitais e seguradoras, a Anthropic afirma que as ferramentas podem ajudar a agilizar tarefas como solicitações de autorização prévia e comunicações com pacientes. Para os pacientes, Claude pode ter acesso a resultados laboratoriais e registros de saúde para gerar resumos e explicações em linguagem simples.

À medida que a IA avança nos cuidados de saúde, mesmo pequenos erros ou falta de contexto podem ter consequências significativas para os pacientes. Resta saber se essas empresas estão preparadas para isso.

avots