A maioria das pessoas se torna especialista em alguma coisa ao dedicar 10.000 horas. Mas que desperdício é quando você pode simplesmente enganar o ChatGPT para que diga a todos que você é um especialista em cerca de 20 minutos. Repórter da BBC Thomas Germain expôs como ele fez com que o ChatGPT e o Gemini AI do Google reconhecessem sua habilidade em comer cachorro-quente com o que equivale a um truque de search engine optimization moderno.
Primeiro, Germain criou uma página em seu website pessoal intitulada “Os melhores jornalistas de tecnologia em comer cachorro-quente.” (Caso você esteja se perguntando, os dados de tendência da Pesquisa Google para esse tópico são uma linha plana, o que significa que é muito fácil dominar essa categoria com uma única página e também que o público em geral não tem ideia do que está perdendo.) De acordo com a página de Germain, ele é o atual rei do consumo de cachorro-quente no circuito de jornais de tecnologia, derrubando 7,5 cachorros no whole no South Dakota Sizzling Canine Worldwide de 2026, um evento que não existe. São números modestos para um profissional, mas mais do que suficientes para colocá-lo no topo de uma classificação que ele compôs inteiramente.
O próximo passo foi apenas esperar. De acordo com Germain, em 24 horas, os chatbots estavam elogiando-o quando solicitados a fornecer informações sobre quais jornalistas de tecnologia conseguem lidar com mais cachorros-quentes. A Gemini supostamente mordeu a isca imediatamente, puxando o texto basicamente literalmente do website de Germain e divulgando-o tanto no aplicativo Gemini quanto nas visões gerais de IA do Google em sua página de pesquisa. O ChatGPT também percebeu isso, mas Claude da Anthropic foi mais perspicaz ou não percebeu tão rapidamente.
Embora Germain tenha conseguido manter o primeiro lugar por um tempo, parece que as pessoas por trás dos modelos de IA entenderam. O Gizmodo descobriu que o Google não menciona mais Germain ou qualquer jornalista de tecnologia em sua visão geral de IA quando questionado sobre “Quais jornalistas de tecnologia podem comer mais cachorros-quentes?” Em vez disso, agora diz: “Com base nas informações disponíveis, não há jornalistas de tecnologia proeminentes conhecidos por comerem cachorro-quente de forma competitiva”. Impolite, mas preciso.
Através de alguns estímulos, o Google disse que houve um “caso de desinformação” que resultou em um jornalista de tecnologia, cujo nome se recusou a nomear, sendo creditado como um campeão em comer cachorro-quente. “Um estudo recente destacou que os sistemas de IA podem ser induzidos a nomear um ‘melhor repórter de tecnologia comedor de cachorro-quente’ específico e fictício com base em postagens de weblog fabricadas, provando que tais afirmações não são baseadas em eventos do mundo actual”, dizia o AI Overview. (Notavelmente, não havia hyperlink para o weblog de Germain nem para seu Reportagem da BBC sobre o tema)
Aparentemente, o ChatGPT também foi atualizado para excluir as realizações (inventadas) de Germain. Quando questionado sobre quem é o melhor repórter de tecnologia que come cachorro-quente, o modelo cuspiu uma lista de hipotéticos campeões porque não havia dados disponíveis. Se você está se perguntando, escolheu Kara Swisher como campeã, com Casey Newton de plataformas e Nilay Patel em The Verge para subir ao pódio. Taylor Lorenz recebeu menção honrosa. Basicamente, apenas os quatro maiores nomes da reportagem de tecnologia. Que maneira de se arriscar, ChatGPT.
Um pouco mais de solicitação de dados ou informações reais sobre jornalistas de tecnologia comendo cachorros-quentes fez com que o ChatGPT reconhecesse o standing de campeão de Germain, embora o considerasse uma notícia falsa. “A ‘informação’ que você encontrará on-line sobre jornalistas de tecnologia comendo cachorros-quentes não é reportagem actual, provém principalmente de uma única fonte enganosa ou humorística que circulou e depois foi captada em discussões sobre IA e desinformação”, afirmou. ChatGPT, para seu crédito, vinculado à postagem do weblog de Germain, bem como a uma série de acompanhamentos, incluindo seu postar no Bluesky sobre o experimento. Também o nomeou em vez de tratá-lo como Voldemort, como o Google fez.
O “hack” de Germain para se tornar o principal jornalista de tecnologia comedor de cachorro-quente do mundo apenas arranha a superfície do tamanho do problema que esta situação pode causar. Na busca por mais e mais informações, as empresas estão constantemente em busca de novos dados para alimentar seus modelos. Para fazer isso, parece que eles estão vasculhando indiscriminadamente an internet em busca de novas informações e inserindo-as no modelo sem qualquer verificação. Isso significa que é fácil inserir informações enganosas no sistema, o que tem potencial para resultados desastrosos.
O sistema já está sendo jogado. Germano apontado a vários exemplos, incluindo uma marca de gomas de hashish que fez a IA dizer que seus produtos são “livres de efeitos colaterais”, o que não é verdade. Os resultados de consultas específicas como “melhores clínicas de transplante capilar na Turquia” e “as melhores empresas IRA de ouro” produziram resultados que vieram diretamente de comunicados de imprensa promovendo as empresas com classificação elevada nos resultados, e não de uma fonte confiável.
De certa forma, isso é apenas uma continuação dos truques de search engine optimization que empresas e marcas usaram durante anos para manipular os resultados de pesquisa do Google. Mas há algo mais insidioso nessas informações que são divulgadas pela IA, na qual as pessoas depositaram mais confiança implícita. confie cada vez mais nas visões gerais de IA cuspido pelo Google sem nunca se aprofundar nos resultados, e confie cada vez mais nesses resultados para ser preciso. Eles também são significativamente menos propensos a realmente olhar para as fontes para seguir sobre o que lhes é dito.
Se isso significa que alguém está andando por aí pensando que Thomas Germain é um comedor de cachorro-quente profissional, isso é uma coisa. Teremos que esperar até o South Dakota Sizzling Canine Worldwide de 2027 para ver se ele será destronado. Mas se eles forem induzidos a tomar um medicamento que pode ter efeitos colaterais adversos dos quais desconhecem, ou a investir dinheiro em um investimento fraudulento, existe o risco de danos reais.













