Os legisladores do estado de Washington estão a tentar novamente regulamentar a inteligência synthetic, apresentando nesta sessão uma série de projetos de lei que visam reduzir a discriminação, limitar o uso da IA nas escolas e impor novas obrigações às empresas que criam produtos de IA emocionalmente responsivos.
O estado aprovou leis restritas relacionadas à IA no passado – incluindo limites ao reconhecimento facial e à distribuição de deepfakes – mas esforços mais amplos muitas vezes estagnaram, incluindo propostas no ano passado focadas na transparência e divulgação do desenvolvimento da IA.
Os projetos de lei deste ano concentram-se nas crianças, na saúde psychological e em decisões de alto risco, como contratação, moradia e empréstimos. Os projetos de lei podem afetar fornecedores de software program de RH, empresas de tecnologia educacional, startups de saúde psychological e plataformas generativas de IA que operam em Washington.
As propostas surgem num momento em que o Congresso continua a debater a supervisão da IA com poucas ações concretas, deixando os estados a experimentar as suas próprias barreiras de proteção. Um relatório provisório emitido recentemente pelo estado de WashingtonForça-Tarefa de IAobserva que a “abordagem de não interferência” do governo federal em relação à IA criou “uma lacuna regulatória essential que deixa os habitantes de Washington vulneráveis”.
Aqui estão cinco projetos de lei relacionados à IA que foram pré-apresentados antes do início oficial da sessão legislativa, que começa na segunda-feira.
Este projeto de lei abrangente regulamentaria os chamados sistemas de IA de alto risco utilizados para tomar ou influenciar significativamente decisões sobre emprego, habitação, crédito, cuidados de saúde, educação, seguros e liberdade condicional.
As empresas que desenvolvam ou implementem estes sistemas em Washington seriam obrigadas a avaliar e mitigar os riscos de discriminação, divulgar quando as pessoas estão a interagir com a IA e explicar como a IA contribuiu para decisões adversas. Os consumidores também poderiam receber explicações sobre decisões influenciadas pela IA.
A proposta não se aplicaria a ferramentas de baixo risco, como filtros de spam ou chatbots básicos de atendimento ao cliente, nem à IA usada estritamente para pesquisa. Ainda assim, poderá afectar uma vasta gama de empresas tecnológicas, incluindo fornecedores de software program de RH, empresas fintech, plataformas de seguros e grandes empregadores que utilizam ferramentas de triagem automatizadas. O projeto entraria em vigor em 1º de janeiro de 2027.
Este projeto de lei, solicitado pelo governador Bob Ferguson, concentra-se em chatbots complementares de IA e exigiria divulgações repetidas de que um chatbot de IA não é humano, proibiria conteúdo sexualmente explícito para menores e exigiria protocolos de prevenção de suicídio. As violações seriam abrangidas pela Lei de Proteção ao Consumidor de Washington.
As conclusões do projeto de lei alertam que os chatbots complementares de IA podem confundir a linha entre a interação humana e synthetic e podem contribuir para a dependência emocional ou reforçar ideias prejudiciais, incluindo automutilação, especialmente entre menores.
Essas regras podem impactar diretamente as startups de saúde psychological e bem-estar que estão experimentando terapias baseadas em IA ou ferramentas de apoio emocional – incluindo empresas que exploram serviços de saúde psychological baseados em IA, como a startup NewDays de Seattle.
Babak Parviz, CEO da NewDays e ex-líder da Amazon, disse acreditar que o projeto de lei tem boas intenções, mas acrescentou que seria difícil aplicá-lo porque “construir um relacionamento de longo prazo é definido de forma tão vaga aqui”.
Parviz disse que é importante examinar os sistemas que interagem com menores para garantir que não causem danos. “Para sistemas críticos de IA que interagem com pessoas, é importante ter uma camada de supervisão humana”, disse ele. “Por exemplo, nosso sistema de IA em uso clínico está sob a supervisão de um médico humano especialista.”
OpenAI e mídia de senso comum estão fazendo parceria em uma iniciativa eleitoral na Califórnia também se concentrou em chatbots e menores.
Um projeto de lei relacionado vai ainda mais longe, criando uma potencial responsabilidade civil quando um sistema de IA é alegado ter contribuído para o suicídio de uma pessoa.
Ao abrigo deste projeto de lei, as empresas poderiam enfrentar ações judiciais se o seu sistema de IA encorajasse a automutilação, fornecesse instruções ou não conseguisse direcionar os utilizadores para recursos de crise – e seriam impedidas de argumentar que o dano foi causado exclusivamente pelo comportamento autónomo da IA.
Se promulgada, a medida vincularia explicitamente o design e a operação do sistema de IA às alegações de homicídio culposo. O projeto surge em meio ao crescente escrutínio jurídico dos chatbots do tipo companheiro, incluindo ações judiciais envolvendo Character.AI e OpenAI.
Visa o uso de IA em escolas de ensino basic e médio, proibindo “pontuações de risco” preditivas que rotulam os alunos como prováveis criadores de problemas e proibindo a vigilância biométrica em tempo actual, como o reconhecimento facial.
As escolas também seriam proibidas de utilizar a IA como única base para suspensões, expulsões ou encaminhamentos para as autoridades policiais, reforçando que o julgamento humano deve permanecer central nas decisões disciplinares.
Educadores e defensores dos direitos civis alertaram sobre ferramentas preditivas que podem amplificar disparidades na disciplina.
Esta proposta atualiza a lei de direito de publicidade de Washington para cobrir explicitamente imagens digitais forjadas geradas por IA, incluindo clones de voz convincentes e imagens sintéticas.
Usar a imagem de alguém gerada pela IA para fins comerciais sem consentimento pode expor as empresas a responsabilidades, reforçando que as proteções de identidade existentes se aplicam na period da IA — e não apenas para celebridades e figuras públicas.












