Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- Perplexidade para Organizações de Segurança Pública lançado em janeiro.
- A polícia pode usá-lo, por exemplo, para analisar fotos da cena do crime.
- Outros desenvolvedores de IA poderão seguir o exemplo em breve.
A startup de inteligência synthetic Perplexity lançou uma nova iniciativa que visa colocar sua tecnologia nas mãos de profissionais de segurança pública, incluindo policiais. Revelado na semana passada, Perplexidade para organizações de serviço público oferece um ano grátis do nível Enterprise Professional da empresa para até 200 licenças, com opções de desconto disponíveis para agências maiores.
Como qualquer pessoa que usa rotineiramente ferramentas baseadas em LLM, como Perplexity e ChatGPT, sabe, essas ferramentas são falíveis, para dizer o mínimo: são propensas a alucinações, imprecisões e regurgitação de preconceitos culturais que se infiltraram em seus dados de treinamento e, como regra geral, são projetadas para otimizar o engajamento em vez do bem-estar humano. Os protocolos sobre como usá-los com segurança são um trabalho em andamento.
O resultado é que, quando se trata de indústrias sensíveis, como a aplicação da lei, pequenos erros podem ser muito úteis.
Casos de uso mundanos, grandes consequências?
Em seu anúncio, a empresa disse que o programa tem como objetivo ajudar os policiais a tomar decisões mais informadas em tempo actual e a automatizar tarefas rotineiras, como gerar descrições de fotos da cena do crime, analisar notícias e transcrições de câmeras corporais e transformar coleções de anotações dos investigadores em relatórios estruturados e polidos.
Parece bastante inócuo. Mas para Katie Kinsey, chefe de gabinete e conselheira de políticas de IA do Projeto de Policiamentoé exatamente isso que os torna uma bandeira vermelha.
Além disso: O que as regulamentações de IA mais fortes do país mudam em 2026, de acordo com especialistas jurídicos
“O que pode ser pernicioso neste tipo de casos de utilização é que podem ser apresentados como administrativos ou servis”, disse ela, acrescentando que estas tarefas quotidianas podem ter grandes efeitos a jusante na vida das pessoas. “Há muitas decisões importantes, que levam a acusações e acusações, que emanam dos tipos de casos de uso de que estamos falando aqui.”
É improvável que usar um chatbot para sintetizar suas anotações escolares em um guia de estudo personalizado resulte em catástrofe. Mas na aplicação da lei, onde os riscos são muito maiores, pequenos erros podem ter grandes consequências.
Uma ferramenta de IA pode ter alucinações de uma forma óbvia ao contando uma história sobre um oficial se transformando em um sapocaso em que os usuários humanos podem simplesmente desconsiderar seus resultados. O cenário mais perigoso seria aquele em que um sistema de IA alterasse sutilmente a verdade de uma forma difícil de detectar – como hipoteticamente alucinar pequenos detalhes em um relatório policial, o que subsequentemente leva a uma condenação injusta. Já houve vários casos de advogados que usaram ferramentas de IA que fabricaram precedentes de casos e outros detalhes quando usadas para redigir processos; novamente, pequenos detalhes, consequências potencialmente desastrosas.
Além disso: a nova ferramenta de IA do Perplexity permite pesquisar patentes com linguagem pure – e é grátis
Numa entrevista à ZDNET, um porta-voz da Perplexity disse que a empresa está bem posicionada para equipar o pessoal de segurança pública com ferramentas de IA, uma vez que tornou a precisão uma parte elementary do seu produto e modelo de negócio; em vez de treinar seus próprios modelos de IA do zero, a Perplexity pega os de outros desenvolvedores, como OpenAI e Anthropic, e os treina posteriormente para minimizar a alucinação.
Ainda assim, tem suas deficiências. Um estudo recente conduzido pela European Broadcasting Union e pela BBC descobriu que, quando questionados sobre notícias recentes, o Perplexity, juntamente com três outros chatbots líderes, geravam frequentemente respostas que “tinham pelo menos um problema significativo” relacionado com a precisão, o fornecimento ou outros critérios.
Atribuindo responsabilidades
Tudo isto levanta a questão: quem deve ser o responsável closing por garantir que a IA é utilizada de forma responsável na aplicação da lei?
Até a chegada de chatbots livres de alucinações – e não está claro se tal coisa é possível – eles devem ser usados por sua própria conta e risco. Isso também se aplica aos policiais que optam por usar o Perplexity ou outras ferramentas de IA, mesmo para usos aparentemente mundanos, de acordo com Andrew Ferguson, professor da Faculdade de Direito da Universidade George Washington.
Além disso: a nova ferramenta de IA do Perplexity permite pesquisar patentes com linguagem pure – e é grátis
“Quando se brinca com a liberdade e os direitos constitucionais, é preciso garantir que existem salvaguardas para a precisão… sem leis ou regras para proteger contra erros, cabe à polícia garantir que utiliza a tecnologia com sabedoria”, disse ele à ZDNET.
Kinsey, por outro lado, acredita que o ónus da responsabilidade deve recair sobre os decisores políticos. “O problema”, disse ela, “é que não existe uma lei rígida que estabeleça quais deveriam ser esses requisitos”.
Olhando para frente
Embora a Perplexity tenha dito que este é o primeiro programa desse tipo, é quase certo que não será o último.
Os desenvolvedores de IA estão enfrentando uma enorme pressão para expandir suas bases de usuários o mais amplamente possível, e os departamentos de polícia têm uma longa história de serem os primeiros a adotar novas tecnologias. Os chamados algoritmos de “policiamento preditivo” têm sido utilizados desde o início da década de 2000 – e por vezes criticados por alegadamente perpetuarem preconceitos históricos contra grupos marginalizados e pela sua falta de transparência. Mais recentemente, algumas agências de aplicação da lei começaram a usar IA para reconhecimento facial e detecção de mentiras.
“A aplicação da lei é um bom cliente, porque eles não vão a lugar nenhum”, disse Kinsey. “Vemos essa relação entre a indústria privada e as autoridades policiais o tempo todo”.
A intensa competição da corrida pela IA poderia fazer com que outras empresas seguissem o exemplo da Perplexity, lançando iniciativas destinadas a policiais e outros funcionários de segurança pública.












