Força de vendas O CEO Marc Benioff disse na terça-feira que “deve haver alguma regulamentação” da inteligência synthetic, apontando vários casos documentados de suicídio ligados à tecnologia.
“Este ano, você realmente viu algo horrível, que é que esses modelos de IA se tornaram treinadores suicidas”, disse Benioff a Sarah Eisen da CNBC na terça-feira, na principal conferência do Fórum Econômico Mundial em Davos, Suíça.
O apelo de Benioff à regulamentação ecoou um apelo semelhante que ele fez sobre as redes sociais anos atrás, em Davos.
Em 2018, Benioff disse que as redes sociais deveriam ser tratadas como um problema de saúde e que as plataformas deveriam ser regulamentadas como os cigarros: “Elas são viciantes, não são boas para você”.
“Coisas ruins estavam acontecendo em todo o mundo porque as mídias sociais estavam totalmente desregulamentadas”, disse ele na terça-feira, “e agora você está vendo isso acontecer novamente com a inteligência synthetic”.
Até agora, a regulamentação da IA nos EUA carecia de clareza e, na ausência de barreiras de proteção abrangentes, os estados começaram a instituir as suas próprias regras, com a Califórnia e Nova Iorque a promulgarem algumas das leis mais rigorosas.
O governador da Califórnia, Gavin Newsom, assinou uma série de projetos de lei em outubro para abordar questões de segurança infantil com IA e mídias sociais. A governadora de Nova York, Kathy Hochul, sancionou a Lei de Educação e Segurança de IA Responsável em dezembro, impondo regulamentações de segurança e transparência a grandes desenvolvedores de IA.
O presidente Donald Trump rejeitou o que chamou de “regulação estatal excessiva” e assinou um acordo ordem executiva em Dezembro para tentar bloquear tais esforços.
“Para vencer, as empresas de IA dos Estados Unidos devem ser livres para inovar sem regulamentações pesadas”, afirmou o pedido.
Benioff foi inflexível na terça-feira de que é necessária uma mudança na regulamentação da IA.
“É engraçado, as empresas de tecnologia odeiam regulamentação. Elas odeiam, exceto uma. Elas amam a Seção 230, que basicamente diz que elas não são responsáveis”, disse Benioff. “Portanto, se este grande modelo de linguagem orienta esta criança ao suicídio, eles não são responsáveis por causa da Seção 230. Isso é provavelmente algo que precisa ser remodelado, mudado, mudado.”
A Seção 230 da Lei de Decência nas Comunicações protege as empresas de tecnologia de responsabilidade authorized sobre o conteúdo dos usuários. Republicanos e democratas expressaram preocupações sobre a lei.
“Há muitas famílias que, infelizmente, sofreram este ano, e não acho que precisassem sofrer”, disse Benioff.
Se você estiver tendo pensamentos suicidas ou estiver em perigo, entre em contato com o Suicídio e crise salva-vidas em 988 para apoio e assistência de um conselheiro treinado.













