O procurador-geral da Virgínia Ocidental entrou com uma ação de proteção ao consumidor contra Maçãalegando que não conseguiu impedir que materiais de abuso sexual infantil fossem armazenados e compartilhados através de dispositivos iOS e serviços iCloud.
John “JB” McCuskey, um republicano, acusou a Apple de priorizar a marca de privacidade e seus próprios interesses comerciais em detrimento da segurança infantil, enquanto outras grandes empresas de tecnologia, incluindo Google, Microsofte Dropboxtêm sido mais proativos, utilizando sistemas como o PhotoDNA para combater esse tipo de materials.
PhotoDNA, desenvolvido pela Microsoft e Dartmouth School em 2009, usa “hash e correspondência“para identificar e bloquear automaticamente imagens de materials de abuso sexual infantil (CSAM) quando já tiverem sido identificadas como tal e denunciadas às autoridades.
Em 2021, a Apple testou seus próprios recursos de detecção de CSAM que podiam encontrar e remover automaticamente imagens de exploração infantil e relatar aquelas que foram enviadas para o iCloud nos EUA ao Centro Nacional para Crianças Desaparecidas e Exploradas.
Mas a empresa retirou seus planos para os recursos depois que defensores da privacidade temiam que essa tecnologia pudesse criar uma porta dos fundos para a vigilância governamental e ser ajustada e explorada para censurar outros tipos de conteúdo em dispositivos iOS.
Os esforços da empresa desde então não satisfizeram uma ampla gama de críticos.
Em 2024, a Sociedade Nacional para a Prevenção da Crueldade contra Crianças, com sede no Reino Unido, disse a maçã não conseguiu monitorar, tabular e relatar adequadamente o CSAM em seus produtos às autoridades.
E num processo de 2024 movido no Distrito Norte da Califórnia, milhares de sobreviventes de abuso sexual infantil processou a Applealegando que a empresa nunca deveria ter abandonado seus planos anteriores para recursos de detecção de CSAM e, ao permitir que esse materials proliferasse on-line, fez com que os sobreviventes revivessem seu trauma.
A Apple se posicionou como a mais sensível à privacidade das grandes empresas de tecnologia, desde que seu CEO, Tim Prepare dinner, escreveu uma carta aberta sobre o assunto em 2014.
Se o processo da Virgínia Ocidental for bem-sucedido, poderá forçar a empresa a fazer alterações no design ou na segurança dos dados. O estado está buscando indenizações legais e punitivas e medidas cautelares exigindo que a Apple implemente uma detecção eficaz de CSAM.
Em comunicado enviado por e-mail, um porta-voz da Apple disse à CNBC que “proteger a segurança e a privacidade de nossos usuários, especialmente as crianças, é basic para o que fazemos”.
A empresa apontou controles parentais e recursos como Segurança de Comunicação, que “intervém automaticamente nos dispositivos das crianças quando a nudez é detectada em mensagens, fotos compartilhadas, AirDrop e até mesmo em chamadas FaceTime ao vivo”, como uma indicação de seu compromisso em fornecer “segurança, proteção e privacidade” aos usuários.
“Estamos inovando todos os dias para combater ameaças em constante evolução e manter a plataforma mais segura e confiável para as crianças”, acrescentou o porta-voz.
– Kif Leswing da CNBC contribuiu com reportagens












