Início Tecnologia Google take away resumos de saúde de IA após exposição de erros...

Google take away resumos de saúde de IA após exposição de erros médicos arriscados

24
0

Todos nós já estivemos lá. Você sente uma dor estranha na lateral do corpo ou recebe um resultado de teste confuso do médico, e a primeira coisa que você faz é abrir o Google. Você não está procurando um diploma de médico; você só quer uma resposta rápida para “estou bem?” Mas recentemente, o Google teve que pisar no freio em seus resumos de pesquisa de IA porque, como se constatou, pedir aconselhamento médico a um robô pode, na verdade, ser perigoso.

O Google silenciosamente apagou vários resumos de saúde gerados por IA de seus resultados de pesquisa depois que uma investigação revelou que eles estavam fornecendo informações imprecisas e francamente assustadoras. Tudo isso começou depois de um relatório de O Guardião destacou que essas “Visões gerais de IA” – as caixas coloridas que aparecem no topo da sua pesquisa – estavam fornecendo dados incompletos.

O exemplo mais flagrante foi sobre exames de sangue do fígado

Se você pedisse à IA “intervalos normais”, ela apenas emitiria uma lista de números. Não perguntou se você period homem ou mulher. Não perguntou sobre sua idade, etnia ou histórico médico. Apenas deu um número fixo. Os especialistas médicos analisaram isso e basicamente disseram: “Isso é perigoso”.

O problema aqui não é apenas que a IA estava errada; é que period perigosamente enganoso. Think about alguém com doença hepática em estágio inicial consultando os resultados dos exames. A IA diz que seus números estão dentro da faixa “regular” extraída de algum web site aleatório. Essa pessoa pode pensar: “Ah, estou bem então” e faltar a uma consulta de acompanhamento. Na realidade, um número “regular” para uma pessoa de 20 anos pode ser um sinal de alerta para uma pessoa de 50 anos. A IA carece de nuances para saber isso, e essa lacuna no contexto pode ter consequências graves no mundo actual.

A resposta do Google foi bastante padronizada: eles removeram as consultas específicas sinalizadas e insistiram que seu sistema geralmente é útil. Mas aqui está o chute: organizações de saúde como o British Liver Belief descobriram que se você apenas reformulasse ligeiramente a pergunta, a mesma informação ruim voltaria a aparecer. É como um jogo digital de pancada na toupeira. Você corrige um erro e a IA gera um novo cinco segundos depois.

A verdadeira questão aqui é a confiança

Como esses resumos de IA ficam bem no topo da página, acima dos hyperlinks reais para hospitais ou revistas médicas, eles carregam um ar de autoridade. Somos treinados para confiar no melhor resultado. Quando o Google apresenta uma resposta em uma caixinha elegante, nosso cérebro inconscientemente a trata como a resposta “correta”. Mas não é. É apenas um mecanismo de previsão tentando adivinhar quais palavras virão a seguir.

Por enquanto, este é um enorme chamado de alerta. A IA é ótima para resumir um e-mail ou planejar um itinerário de viagem, mas quando se trata de saúde, claramente não está pronta para o horário nobre. Até que esses sistemas possam entender o contexto – ou até que o Google estabeleça barreiras de proteção mais rígidas – provavelmente será mais seguro passar pelo robô e clicar em um hyperlink actual de um médico actual. Velocidade é boa, mas precisão é a única coisa que importa quando você fala sobre sua saúde.

avots