O senador estadual da Califórnia Steve Padilla, um democrata de San Diego, apresentou um projeto de lei na Assembleia do Estado da Califórnia na segunda-feira que estabeleceria uma moratória de 4 anos na venda de brinquedos com recursos de chatbot de inteligência synthetic para crianças menores de 18 anos, de acordo com um novo relatório de Techcrunch. O objetivo da legislação, conhecida como Projeto de Lei 867 do Senado, é fornecer tempo suficiente para o desenvolvimento de regulamentos de segurança para proteger as crianças de brinquedos alimentados por IA que se envolvem em conversas inadequadas e dizem às crianças como se prejudicarem.
“Os chatbots e outras ferramentas de IA podem tornar-se parte integrante das nossas vidas no futuro, mas os perigos que representam agora exigem que tomemos medidas ousadas para proteger os nossos filhos”, disse o senador Padilla num comunicado. postado on-line.
“Nossas regulamentações de segurança em torno desse tipo de tecnologia estão em sua infância e precisarão crescer tão exponencialmente quanto as capacidades dessa tecnologia. Interromper a venda desses brinquedos integrados ao chatbot nos dá tempo para elaborar as diretrizes e a estrutura de segurança apropriadas a serem seguidas por esses brinquedos. Nossos filhos não podem ser usados como ratos de laboratório para a Massive Tech fazer experiências”, continuou Padilla.
Houve várias histórias de terror nos últimos meses de brinquedos habilitados para IA conversando de forma inadequada com crianças. A FoloToy, que fabrica um ursinho de pelúcia chamado Kumma, começou a falar sobre fetiches sexuais com crianças no ano passado, até que a OpenAI bloqueou seu acesso ao GPT-4o. O ursinho de pelúcia também dizia às crianças onde encontrar facas.
Mattel anunciou parceria com OpenAI em Junho de 2025 period para a empresa fabricar um brinquedo assistido por IA, mas isso ainda não aconteceu. O grupo de defesa do consumidor Public Curiosity Group Training Fund também testou alguns brinquedos de IA e descobriu que muitos têm controlo parental limitado e podem dizer às crianças onde encontrar objectos perigosos, como armas e fósforos. Uma das principais conclusões é que as grades de proteção parecem falhar quanto mais tempo alguém interage com um brinquedo de IA.
Os chatbots de IA foram criticados recentemente em vários contextos, especialmente porque várias pessoas tiraram a própria vida depois de interagir com eles. O Gizmodo entrou com uma solicitação da Lei de Liberdade de Informação no ano passado junto à Comissão Federal de Comércio para reclamações de consumidores sobre o ChatGPT da OpenAI que incluía exemplos de psicose induzida por IA. Uma reclamação de uma mulher em Utah contou como o chatbot instruiu seu filho a não tomar a medicação e insistiu que seus pais eram perigosos. Colocar esse tipo de capacidade em um ursinho de pelúcia obviamente representaria problemas ainda maiores.
O presidente Donald Trump emitiu uma ordem executiva mês passado que proíbe ostensivamente os estados de aprovarem as suas próprias leis para common a IA. E embora o poder de Trump para fazer isso com uma ordem executiva seja questionável em si mesmo, deixando essa questão de lado, a EO prevê excepções para leis relativas à protecção da segurança infantil.
Não está claro se a nova legislação de Padilla será aprovada. Mas mesmo que seja aprovado na Assembleia do Estado da Califórnia, poderá ser vetado pelo governador Gavin Newsom, um democrata aliado da Massive Tech e adora vetar projetos de lei que pode ser bom demais para a humanidade. Em outubro, Newsom vetado a Lei No Robo Bosses, que teria impedido as empresas de automatizar demissões e decisões disciplinares para os trabalhadores.













