Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- Duas importantes leis estaduais sobre IA estão em vigor, pois a regulamentação federal sobre IA permanece obscura.
- Trump renovou os ataques à legislação estadual de IA.
- Os pesquisadores ainda estão insatisfeitos com as leis atuais.
Faltam algumas semanas para 2026 e a administração Trump ainda não propôs legislação sobre IA em nível federal.
Ao mesmo tempo, leis de segurança de IA inéditas na Califórnia e em Nova Iorque – ambos estados bem posicionados para influenciar as empresas de tecnologia – entraram em vigor. Mas uma ordem executiva de dezembro e a força-tarefa que se seguiu renovaram os ataques às leis estaduais de IA. O que significam as novas leis na prática e poderão sobreviver ao escrutínio a nível federal?
Além disso: 5 maneiras pelas quais regras e regulamentos podem ajudar a orientar sua inovação em IA
SB-53 e a Lei RAISE
Califórnia SB-53a nova lei de segurança de IA que entrou em vigor em 1º de janeiro, exige que os desenvolvedores de modelos divulguem como irão mitigar os maiores riscos representados pela IA e relatem incidentes de segurança envolvendo seus modelos (ou enfrentarão multas de até US$ 1 milhão se não o fizerem). Embora não seja tão completa quanto as tentativas anteriores de legislação no estado, a nova lei é praticamente a única num cenário de IA altamente desregulamentado. Mais recentemente, juntou-se a ele o Lei AUMENTARaprovada em Nova York no ultimate de dezembro, que é semelhante à lei da Califórnia.
A Lei RAISE, em comparação, também estabelece requisitos de notificação para incidentes de segurança envolvendo modelos de todos os tamanhos, mas tem um limite máximo de multa de US$ 3 milhões após a primeira violação de uma empresa. Enquanto o SB 53 exige que as empresas notifiquem o estado no prazo de 15 dias após um incidente de segurança, o RAISE exige a notificação no prazo de 72 horas.
Além disso: o ato de equilíbrio da IA que sua empresa não pode se dar ao luxo de atrapalhar em 2026
O SB 1047, uma versão anterior do SB 53, exigiria que os laboratórios de IA testassem com segurança modelos que custam mais de US$ 100 milhões e desenvolvessem um mecanismo de desligamento, ou interruptor de interrupção, para controlá-los caso se comportassem mal. Esse projecto de lei fracassou face aos argumentos de que iria sufocar a criação de emprego e a inovação, uma resposta comum aos esforços de regulamentação, especialmente da precise administração.
SB 53 usa uma mão mais leve. Tal como a Lei RAISE, visa empresas com receitas anuais brutas superiores a 500 milhões de dólares, um limite que isenta muitas pequenas startups de IA dos requisitos de relatórios e documentação da lei.
“É interessante que exista esse limite de receita, especialmente porque houve a introdução de muitos modelos de IA mais enxutos que ainda podem envolver muito processamento, mas podem ser implantados por empresas menores”, disse a advogada de proteção de dados Lily Li, que fundou a Metaverse Regulation, à ZDNET. Ela observou que o governador Gavin Newsom vetou o SB-1047, em parte, porque imporia custos inibidores do crescimento às empresas mais pequenas, uma preocupação também partilhada por grupos de foyer.
Além disso: a IA preocupada assumirá seu trabalho remoto? Você está seguro por enquanto, este estudo mostra
“Acho que é mais motivado politicamente do que necessariamente motivado por diferenças no dano potencial ou impacto da IA com base no tamanho da empresa ou no tamanho do modelo”, disse ela sobre o limite.
Comparado ao SB-1047, o SB-53 concentra-se mais na transparência, documentação e relatórios do que nos danos reais. A lei cria requisitos para proteções em torno de riscos catastróficos: ataques cibernéticos, químicos, biológicos, radiológicos e com armas nucleares, lesões corporais, agressões ou situações em que os desenvolvedores perdem o controle de um sistema de IA.
Limites renovados na legislação estadual de IA
A atual administração e as empresas que se opõem à regulamentação da segurança da IA, especialmente a nível federal, dizem que isso atrasaria o desenvolvimento, prejudicaria os empregos no setor tecnológico e cederia terreno na corrida à IA a países como a China.
Em 11 de dezembro, o presidente Trump assinou um ordem executiva declarando uma intenção renovada de centralizar as leis de IA em nível federal para garantir que as empresas dos EUA sejam “livres para inovar sem regulamentações pesadas”. A ordem argumenta que “a regulamentação estatal excessiva frustra este imperativo” ao criar uma colcha de retalhos de leis diferentes, algumas das quais alega “são cada vez mais responsáveis por exigir que as entidades incorporem preconceitos ideológicos nos modelos”.
Além disso: Senado take away proibição de regulamentações estaduais de IA do projeto de lei tributária de Trump
Também anunciou uma Força-Tarefa de Litígios de IA para desafiar as leis estaduais que são inconsistentes com uma “estrutura política nacional minimamente onerosa para IA”. Isto renova uma tentativa do Congresso, no verão passado, de proibir os estados de aprovar regulamentos de IA durante 10 anos, o que teria retido fundos de banda larga e infraestrutura de IA dos estados que não os cumprissem. A moratória foi derrotada de forma esmagadora, preservando temporariamente os direitos dos estados de legislar sobre IA no seu território.
Semana passada, Notícia da CBS relatada que o Departamento de Justiça estava formando a força-tarefa. Um memorando interno revisado pela CBS Information disse que a força-tarefa será liderada pela procuradora-geral dos EUA, Pam Bondi, ou por outro nomeado.
Dito isto, Li não espera que a nova força-tarefa tenha um impacto substancial na regulamentação estadual, pelo menos na Califórnia.
“A força-tarefa de litígio de IA se concentrará em leis que são inconstitucionais sob a cláusula de comércio latente e a Primeira Emenda, anuladas pela lei federal ou de outra forma ilegais”, disse ela à ZDNET. “A 10ª Emenda, no entanto, reserva explicitamente direitos aos estados se não houver lei federal, ou se não houver preempção das leis estaduais por uma lei federal.”
Além disso: a guerra da IA contra o trabalho ocupado é um assassino da criatividade? O que dizem os especialistas
Além de um novo pedido de informações (RFI) do Centro de Padrões e Inovação de IA (CAISI) – antigo Instituto de Segurança de IA – sobre os riscos de segurança dos agentes de IA, a administração não parece ter oferecido um substituto para as leis estaduais.
“Os requisitos federais da HIPAA permitem que os estados aprovem leis estaduais de privacidade de saúde mais rigorosas”, disse Li. “Aqui, não existe nenhuma lei federal de IA que prejudique muitas das leis estaduais, e o Congresso rejeitou esforços anteriores para adicionar a preempção federal de IA à legislação anterior.”
Proteções adicionais – e limites
O SB-53 da Califórnia também exige que as empresas de IA protejam os denunciantes. Isto chamou a atenção de Li, que observou que, ao contrário de outras partes da lei, que estão refletidas na Lei da UE e para as quais muitas empresas já estão preparadas, as proteções aos denunciantes são únicas na tecnologia.
“Realmente não houve muitos casos no espaço de IA, obviamente, porque é novo”, disse Li. “Acho que esta é uma preocupação maior para muitas empresas de tecnologia, porque há muita rotatividade no espaço tecnológico e você não sabe como será o mercado. Isso é outra coisa que preocupa as empresas como parte do processo de demissão.”
Ela acrescentou que os requisitos de relatórios do SB 53 deixam as empresas mais preocupadas com a criação de materials que possa ser usado em ações judiciais coletivas.
Além disso: por que você pagará mais pela IA em 2026 e três dicas para economizar dinheiro para experimentar
Gideon Futerman, associado de projetos especiais do Middle for AI Security, não acredita que o SB 53 terá um impacto significativo na pesquisa de segurança.
“Isso não mudará muito o dia a dia, em grande parte porque a Lei de IA da UE já exige essas divulgações”, explicou. “O SB-53 não impõe nenhum novo ônus.”
Nenhuma das leis exige que os laboratórios de IA tenham seus modelos testados por terceiros, embora a Lei RAISE de Nova York exija auditorias anuais de terceiros no momento da redação. Ainda assim, Futerman considera o SB 53 um progresso.
“Isso mostra que a regulamentação da segurança da IA é possível e tem impulso político. A quantidade de trabalho actual de segurança que acontece hoje ainda está muito abaixo do necessário”, disse ele. “As empresas que correm para construir IA superinteligente, embora admitam que estes sistemas podem representar riscos de extinção, ainda não compreendem realmente como funcionam os seus modelos”.
Onde isso deixa a segurança da IA
“O nível de regulamentação do SB-53 não é nada comparado aos perigos, mas é um primeiro passo valioso em termos de transparência e a primeira aplicação em torno do risco catastrófico nos EUA. É aqui que deveríamos estar há anos”, disse Futerman.
Independentemente das regulamentações estaduais e federais, Li disse que a governança já se tornou uma prioridade maior para as empresas de IA, impulsionada pelos seus resultados financeiros. Os clientes empresariais estão a impor responsabilidades aos programadores e os investidores estão a ter em conta a privacidade, a segurança cibernética e a governação nas suas decisões de financiamento.
Além disso: 5 maneiras de expandir seus negócios com IA – sem deixar seu pessoal de lado
Ainda assim, ela disse que muitas empresas estão apenas passando despercebidas pelos reguladores enquanto podem.
“A transparência por si só não torna os sistemas seguros, mas é um primeiro passo essential”, disse Futerman. Ele espera que a legislação futura preencha as lacunas restantes na estratégia de segurança nacional.
“Isso inclui fortalecer os controles de exportação e rastreamento de chips, melhorar a inteligência sobre projetos fronteiriços de IA no exterior e coordenar com outras nações as aplicações militares de IA para evitar uma escalada não intencional”, acrescentou.













