Numa semana de saídas bastante públicas de empresas de inteligência synthetic, o caso de Zoë Hitzig é, sem dúvida, o que mais chama a atenção. O ex-pesquisador da OpenAI se divorciou da empresa em um artigo de opinião no New York Times no qual ela alertou não sobre alguma crise vaga e sem nome, como a liderança de salvaguarda recentemente falecida da Anthropic, mas sobre algo actual e iminente: a introdução de anúncios da OpenAI no ChatGPT e quais informações ela usará para direcionar essas mensagens patrocinadas.
Há uma distinção importante que Hitzig faz no início de seu artigo: o problema não é a publicidade em si, mas sim o uso potencial de uma vasta quantidade de dados confidenciais que os usuários compartilharam com o ChatGPT sem pensar duas vezes sobre como isso poderia ser usado para atingi-los ou quem poderia potencialmente colocar as mãos neles.
“Durante vários anos, os usuários do ChatGPT geraram um arquivo de franqueza humana sem precedentes, em parte porque as pessoas acreditavam que estavam falando com algo que não tinha nenhuma agenda oculta”, escreveu ela. “As pessoas contam aos chatbots sobre os seus medos médicos, os seus problemas de relacionamento, as suas crenças sobre Deus e a vida após a morte. A publicidade construída nesse arquivo cria um potencial para manipular os utilizadores de formas que não temos as ferramentas para compreender, muito menos para prevenir.”
A OpenAI pelo menos reconheceu esta preocupação. Em um postagem no blog publicado no início deste ano anunciando que a empresa fará experiências com publicidade, a empresa prometeu que manterá um firewall entre as conversas que os usuários têm com o ChatGPT e os anúncios que recebem do chatbot. “Mantemos suas conversas com o ChatGPT privadas dos anunciantes e nunca vendemos seus dados aos anunciantes.”
Hitzig acredita que isso é verdade… por enquanto. Mas ela perdeu a confiança na empresa para manter essa posição no longo prazo, especialmente porque não há nada que a impeça de cumprir a privacidade prometida. O investigador argumentou que a OpenAI está “construindo um motor económico que cria fortes incentivos para anular as suas próprias regras”, e alertou que a empresa pode já estar a afastar-se dos princípios anteriores.
Por exemplo, OpenAI tem afirmou que ele não otimiza o ChatGPT para maximizar o engajamento – uma métrica que seria especialmente de interesse para uma empresa que tenta manter as pessoas presas às conversas para que possa veicular mais anúncios. Mas uma declaração não é vinculativa e não está claro se a empresa realmente cumpriu isso. No ano passado, a empresa enfrentou um problema de bajulação com seu modelo – ele começou a se tornar excessivamente lisonjeiro para seus usuários e, às vezes, alimentava pensamentos delirantes que podem ter contribuído para “psicose do chatbot” e auto-mutilação. Os especialistas têm avisado essa bajulação não é apenas um erro no ajuste do modelo, mas uma forma intencional de prender os usuários a conversar com o chatbot.
De certa forma, a OpenAI está apenas acelerando o modelo do Fb de prometer privacidade aos usuários sobre seus dados e então puxando o tapete deles quando acontece que os dados são bastante valiosos. Hitzig está tentando sair na frente do trem antes que ele ganhe muito vapor e recomendou que a OpenAI adote um modelo que realmente garanta proteções aos usuários – seja criando algum tipo de supervisão independente actual e vinculativa ou colocando os dados no controle de um belief com o “dever authorized de agir no interesse dos usuários”. Qualquer uma das opções parece ótima, embora Meta tenha feito a primeira criando o Meta Oversight Board e depois rotineiramente ignorado e desprezado.
Hitzig também, infelizmente, pode ter uma batalha difícil para conseguir que as pessoas se importem. Duas décadas de mídia social criaram uma sensação de niilismo de privacidade no público em geral. Ninguém gosta de anúncios, mas a maioria das pessoas não se incomoda com eles o suficiente para fazer qualquer coisa. A Forrester descobriu que 83% das pessoas entrevistados continuariam a usar o nível gratuito do ChatGPT, apesar da introdução de anúncios. A Anthropic tentou marcar alguns pontos com o público ao criticar a OpenAI sobre sua decisão de inserir anúncios no ChatGPT com um anúncio de alto nível no Tremendous Bowl neste fim de semana, mas a resposta do público foi mais confusão do que qualquer coisa, por AdWeekque encontrou o anúncio classificado entre os 3% mais populares em termos de simpatia em todos os locais do Tremendous Bowl.
O aviso de Hitzig é bem fundamentado. A preocupação que ela tem é actual. Mas fazer com que o público se preocupe com a sua própria privacidade, depois de anos sendo subjugado por algoritmos, é um verdadeiro avanço.










