No sábado, tecnologia empresário Siqi Chen lançado um plug-in de código aberto para o assistente Claude Code AI da Anthropic que instrui o modelo de IA a parar de escrever como um modelo de IA.
Chamado Humanizer, o plug-in de immediate simples alimenta Claude com uma lista de 24 padrões de linguagem e formatação que os editores da Wikipedia possuem listado como brindes de chatbot. Chen publicou o plug-in no GitHub, onde obteve mais de 1.600 estrelas até segunda-feira.
“É realmente útil que a Wikipedia tenha coletado uma lista detalhada de ‘sinais de escrita de IA’”, Chen escreveu em X. “Tanto que você pode simplesmente dizer ao seu LLM para… não fazer isso.”
O materials de origem é um guia de Limpeza de IA do WikiProjectum grupo de editores da Wikipedia que tem caçado artigos gerados por IA desde o ultimate de 2023. O editor francês da Wikipedia, Ilyas Lebleu, fundou o projeto. Os voluntários marcaram mais de 500 artigos para revisão e, em agosto de 2025, publicado uma lista formal dos padrões que eles continuavam vendo.
A ferramenta de Chen é um “arquivo de habilidade” para Claude Code, assistente de codificação baseado em terminal da Anthropic, que envolve um arquivo formatado em Markdown que adiciona uma lista de instruções escritas (você pode veja-os aqui) anexado ao immediate inserido no modelo de linguagem grande que alimenta o assistente. Ao contrário de um regular prompt do sistemapor exemplo, as informações sobre habilidades são formatadas de maneira padronizada e os modelos Claude são ajustados para serem interpretados com mais precisão do que um simples immediate do sistema. (Habilidades personalizadas exigem uma assinatura paga do Claude com a execução de código ativada.)
Mas, como acontece com todos os prompts de IA, os modelos de linguagem nem sempre seguem perfeitamente os arquivos de habilidades, então o Humanizador realmente funciona? Em nossos testes limitados, o arquivo de habilidade de Chen fez com que a saída do agente de IA parecesse menos precisa e mais informal, mas poderia ter algumas desvantagens: não melhorará a factualidade e poderá prejudicar a capacidade de codificação.
Em specific, algumas das instruções do Humanizer podem desviá-lo do caminho certo, dependendo da tarefa. Por exemplo, a habilidade Humanizador inclui esta frase: “Tenha opiniões. Não apenas relate fatos – reaja a eles. ‘Eu realmente não sei como me sentir sobre isso’ é mais humano do que listar de forma neutra os prós e os contras.” Embora ser imperfeito pareça humano, esse tipo de conselho provavelmente não lhe ajudaria em nada se você estivesse usando Claude para escrever documentação técnica.
Mesmo com suas desvantagens, é irônico que um dos conjuntos de regras mais referenciados da internet para detectar escrita assistida por IA possa ajudar algumas pessoas a subvertê-lo.
Identificando os padrões
Então, como é a escrita de IA? O guia da Wikipedia é específico com muitos exemplos, mas daremos apenas um aqui por uma questão de brevidade.
Alguns chatbots adoram estimular seus assuntos com frases como “marcar um momento essential” ou “representar um testemunho de”, de acordo com o guia. Eles escrevem como brochuras turísticas, chamando as vistas de “de tirar o fôlego” e descrevendo as cidades como “aninhadas” em regiões pitorescas. Eles acrescentam frases “-ing” no ultimate das frases para parecerem analíticos: “simbolizando o compromisso da região com a inovação”.
Para contornar essas regras, a habilidade Humanizador diz a Claude para substituir a linguagem inflada por fatos simples e oferece este exemplo de transformação:
Antes: “O Instituto de Estatística da Catalunha foi oficialmente criado em 1989, marcando um momento essential na evolução das estatísticas regionais em Espanha.”
Depois: “O Instituto de Estatística da Catalunha foi criado em 1989 para recolher e publicar estatísticas regionais.”
Claude lerá isso e fará o melhor que puder como uma máquina de correspondência de padrões para criar uma saída que corresponda ao contexto da conversa ou tarefa em questão.
Por que a detecção de escrita por IA falha
Mesmo com um conjunto de regras tão confiante elaborado pelos editores da Wikipédia, escrito anteriormente sobre por que os detectores de escrita de IA não funcionam de maneira confiável: Não há nada inerentemente único na escrita humana que a diferencie de maneira confiável da escrita LLM.
Uma razão é que, embora a maioria dos modelos de linguagem de IA tendam a certos tipos de linguagem, eles também podem ser solicitados a evitá-los, como acontece com a habilidade Humanizador. (Embora às vezes seja muito difícil, como a OpenAI descobriu em seu luta de anos contra o travessão.)












