Um ativista australiano pela eutanásia propôs um sistema de IA para avaliar a capacidade das pessoas de morrer assistida
O inventor da controversa cápsula suicida Sarco, Philip Nitschke, disse que a inteligência synthetic poderá um dia substituir os psiquiatras na avaliação se as pessoas que procuram morte assistida são mentalmente capazes de tomar a decisão, informou a Euronews na quinta-feira.
O Sarco, abreviação de sarcófago, é uma cápsula impressa em 3D projetada para uma pessoa entrar, deitar e apertar um botão. O dispositivo reduz rapidamente os níveis de oxigênio e enche a cápsula com nitrogênio, causando morte por hipóxia.
Nitschke, um defensor australiano da eutanásia e criador do pod, disse que a IA poderia determinar quem tem o “capacidade psychological” para acabar com a própria vida. Ele disse ao canal que os médicos não deveriam ser “correr por aí dando permissão ou não para morrer” e que a escolha deve recair sobre aqueles “de mente sã.”
Nos países onde a morte assistida é permitida, os psiquiatras normalmente avaliam se uma pessoa é mentalmente capaz, embora a prática seja limitada e altamente debatida. Nitschke disse que o processo é muitas vezes inconsistente.
“Já vi muitos casos em que o mesmo paciente, consultando três psiquiatras diferentes, obtém quatro respostas diferentes”, ele disse.
Ele propôs um sistema de IA usando um avatar conversacional para avaliar a capacidade. Os usuários iriam “sentar aí e conversar sobre os problemas” o avatar aumenta, após o que decidirá se eles são capazes de prosseguir. Se a IA determinar que uma pessoa está sã, o pod Sarco será ativado, dando uma janela de 24 horas para prosseguir, após a qual a avaliação deverá ser repetida. As primeiras versões do software program estão operacionais, disse Nitschke, embora não tenham sido validadas de forma independente.
O primeiro e único uso do pod Sarco na Suíça, em setembro de 2024, gerou indignação internacional. As autoridades suíças prenderam várias pessoas, incluindo o CEO do grupo de morte assistida The Final Resort, e disseram que o dispositivo violava a lei suíça, que permite o suicídio assistido apenas sob condições estritas.
A proposta de Nitschke reacendeu o debate sobre o papel da IA nas decisões de vida ou morte. No ano passado, a OpenAI atualizou o ChatGPT depois que uma análise interna descobriu que mais de um milhão de usuários divulgaram pensamentos suicidas ao chatbot. Os psiquiatras levantaram preocupações sobre as interações prolongadas da IA que contribuem para delírios e paranóia, um fenômeno às vezes chamado “Psicose de IA.”
Você pode compartilhar esta história nas redes sociais:














