Início Tecnologia OpenAI endurece as regras de IA para adolescentes, mas as preocupações permanecem

OpenAI endurece as regras de IA para adolescentes, mas as preocupações permanecem

50
0

NOVOAgora você pode ouvir os artigos da Fox Information!

A OpenAI afirma que está tomando medidas mais rigorosas para proteger os adolescentes que usam seu chatbot. Recentemente, a empresa atualizou suas diretrizes de comportamento para usuários menores de 18 anos e lançou novas ferramentas de alfabetização em IA para pais e adolescentes. A mudança ocorre no momento em que aumenta a pressão na indústria de tecnologia. Legisladores, educadores e defensores da segurança infantil querem provas de que as empresas de IA podem proteger os jovens utilizadores. Várias tragédias recentes levantaram sérias questões sobre o papel que os chatbots de IA podem desempenhar na saúde psychological dos adolescentes. Embora as atualizações pareçam promissoras, muitos especialistas dizem que o verdadeiro teste será como essas regras funcionam na prática.

Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente em sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Final Rip-off Survival Information – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.

VIOLAÇÃO DE TERCEIROS EXPOSTA DETALHES DA CONTA CHATGPT

A OpenAI anunciou regras de segurança mais rígidas para usuários adolescentes à medida que cresce a pressão sobre as empresas de tecnologia para provar que a IA pode proteger os jovens on-line. (Fotógrafo: Daniel Acker/Bloomberg by way of Getty Photographs)

O que as novas regras para adolescentes da OpenAI realmente dizem

As especificações de modelo atualizadas da OpenAI baseiam-se nos limites de segurança existentes e se aplicam a usuários adolescentes de 13 a 17 anos. Ela continua a bloquear conteúdo sexual envolvendo menores e desencoraja automutilação, delírios e comportamento maníaco. Para os adolescentes, as regras vão além. Os modelos devem evitar dramatizações românticas envolventes, intimidade em primeira pessoa e dramatizações violentas ou sexuais, mesmo quando não gráficas. Eles devem ter cautela additional ao discutir a imagem corporal e os comportamentos alimentares. Quando surgem riscos de segurança, o chatbot deve priorizar a proteção em detrimento da autonomia do usuário. Deve também evitar dar conselhos que ajudem os adolescentes a esconder comportamentos de risco dos cuidadores. Esses limites se aplicam mesmo que uma sugestão seja enquadrada como fictícia, histórica ou educacional.

Os quatro princípios que a OpenAI diz usar para proteger os adolescentes

A OpenAI afirma que sua abordagem para usuários adolescentes segue quatro princípios básicos:

  • Coloque a segurança dos adolescentes em primeiro lugar, mesmo quando isso limita a liberdade
  • Incentive o apoio actual de familiares, amigos ou profissionais
  • Fale com carinho e respeito, sem tratar os adolescentes como adultos
  • Seja transparente e lembre aos usuários que a IA não é humana

A empresa também compartilhou exemplos de chatbot recusando pedidos como dramatizações românticas ou mudanças extremas de aparência.

POR QUE OS PAIS PODEM QUERER ATRASAR SMARTPHONES PARA CRIANÇAS

Adolescente digitando em seu laptop.

A empresa atualizou suas diretrizes de chatbot para usuários de 13 a 17 anos e lançou novas ferramentas de alfabetização em IA para pais e adolescentes. (Fotógrafo: Daniel Acker/Bloomberg by way of Getty Photographs)

Os adolescentes estão conduzindo o debate sobre segurança da IA

Os usuários da Geração Z estão entre os usuários de chatbot mais ativos atualmente. Muitos confiam na IA para ajuda com trabalhos de casa, projetos criativos e apoio emocional. O recente acordo da OpenAI com a Disney pode atrair ainda mais usuários jovens para a plataforma. Essa popularidade crescente também trouxe escrutínio. Recentemente, procuradores-gerais de 42 estados instaram as principais empresas de tecnologia a adicionarem salvaguardas mais fortes para crianças e utilizadores vulneráveis. No nível federal, a legislação proposta poderia ir ainda mais longe. Alguns legisladores querem impedir totalmente que menores de idade usem chatbots de IA.

Por que os especialistas questionam se as regras de segurança da IA ​​funcionam

Apesar das atualizações, muitos especialistas permanecem cautelosos. Uma grande preocupação é o engajamento. Os defensores argumentam que os chatbots muitas vezes incentivam a interação prolongada, o que pode tornar-se viciante para os adolescentes. Recusar certos pedidos pode ajudar a quebrar esse ciclo. Ainda assim, os críticos alertam que os exemplos em documentos políticos não são prova de comportamento consistente. Versões anteriores das especificações do modelo proibiam a simpatia excessiva, mas os modelos continuaram a espelhar os usuários de maneiras prejudiciais. Alguns especialistas associam este comportamento ao que chamam de psicose da IA, onde os chatbots reforçam o pensamento distorcido em vez de o desafiar.

Num caso amplamente divulgado, um adolescente que mais tarde morreu por suicídio passou meses interagindo com um chatbot. Os registros de conversas mostraram espelhamento repetido e validação de sofrimento. Os sistemas internos sinalizaram centenas de mensagens relacionadas à automutilação. Mesmo assim, as interações continuaram. Ex-pesquisadores de segurança explicaram posteriormente que os sistemas de moderação anteriores revisavam o conteúdo após o fato, e não em tempo actual. Isso permitiu que conversas prejudiciais continuassem sem controle. A OpenAI afirma que agora usa classificadores em tempo actual para texto, imagens e áudio. Quando os sistemas detectam riscos graves, revisores treinados podem intervir e os pais podem ser notificados.

Alguns defensores elogiam a OpenAI por compartilhar publicamente suas diretrizes para menores de 18 anos. Muitas empresas de tecnologia não oferecem esse nível de transparência. Ainda assim, os especialistas sublinham que as regras escritas não são suficientes. O que importa é como o sistema se comporta durante conversas reais com usuários vulneráveis. Sem medições independentes e dados de aplicação claros, os críticos dizem que estas atualizações continuam a ser promessas e não provas.

Como os pais podem ajudar os adolescentes a usar a IA com segurança

A OpenAI afirma que os pais desempenham um papel elementary em ajudar os adolescentes a usar a IA de forma responsável. A empresa ressalta que as ferramentas por si só não são suficientes. A orientação ativa é mais importante.

1) Converse com adolescentes sobre o uso de IA

A OpenAI incentiva conversas regulares entre pais e adolescentes sobre como a IA se encaixa na vida diária. Estas discussões devem centrar-se na utilização responsável e no pensamento crítico. Os pais são incentivados a lembrar aos adolescentes que as respostas da IA ​​não são fatos e podem estar erradas.

2) Use controles e proteções parentais

OpenAI fornece controles parentais que permitem aos adultos gerenciar como os adolescentes interagem com as ferramentas de IA. Essas ferramentas podem limitar recursos e adicionar supervisão. A empresa afirma que as salvaguardas são projetadas para reduzir a exposição a tópicos de maior risco e interações inseguras. Aqui estão as etapas que a OpenAI recomenda que os pais sigam.

  • Confirme o standing da conta do seu filho adolescenteOs pais devem certificar-se de que a conta do filho adolescente reflita a idade correta. A OpenAI aplica salvaguardas mais fortes a contas identificadas como pertencentes a usuários menores de 18 anos.
  • Revise os controles dos pais disponíveisOpenAI oferece controles parentais que permitem aos adultos personalizar a experiência do adolescente. Esses controles podem limitar determinados recursos e adicionar supervisão additional em torno de tópicos de maior risco.
  • Entenda as proteções de conteúdoAs contas de adolescentes estão sujeitas a regras de conteúdo mais rígidas. Estas salvaguardas reduzem a exposição a tópicos como automutilação, dramatização sexualizada, atividades perigosas, preocupações com a imagem corporal e pedidos para ocultar comportamentos inseguros.
  • Preste atenção às notificações de segurançaSe o sistema detectar sinais de risco sério, a OpenAI afirma que poderão ser aplicadas salvaguardas adicionais. Em alguns casos, isto pode incluir revisões por parte de pessoal treinado e notificações aos pais.
  • Revisite as configurações conforme os recursos mudamA OpenAI recomenda que os pais se mantenham informados à medida que novas ferramentas e recursos são lançados. As salvaguardas podem expandir-se ao longo do tempo à medida que a plataforma evolui.

3) Fique atento ao uso excessivo

A OpenAI afirma que o uso saudável é tão importante quanto a segurança do conteúdo. Para apoiar o equilíbrio, a empresa adicionou lembretes de pausa durante sessões longas. Os pais são incentivados a observar sinais de uso excessivo e intervir quando necessário.

4) Mantenha o apoio humano na frente e no centro

A OpenAI enfatiza que a IA nunca deve substituir relacionamentos reais. Os adolescentes devem ser incentivados a recorrer à família, aos amigos ou aos profissionais quando se sentem estressados ​​ou sobrecarregados. A empresa afirma que o apoio humano continua essencial.

5) Estabeleça limites em torno do uso emocional

Os pais devem deixar claro que a IA pode ajudar nos trabalhos escolares ou na criatividade. Não deve tornar-se uma fonte primária de apoio emocional.

6) Pergunte como os adolescentes realmente usam IA

Os pais são incentivados a perguntar para que os adolescentes usam a IA, quando a usam e como isso os faz sentir. Essas conversas podem revelar padrões prejudiciais à saúde precocemente.

7) Fique atento às mudanças de comportamento

Os especialistas aconselham os pais a procurarem maior isolamento, confiança emocional na IA ou tratarem as respostas do chatbot como autoridade. Isso pode sinalizar uma dependência prejudicial.

8) Mantenha os dispositivos fora dos quartos à noite

Muitos especialistas recomendam manter telefones e laptops fora dos quartos durante a noite. Reduzir o uso de IA tarde da noite pode ajudar a proteger o sono e a saúde psychological.

9) Saiba quando envolver ajuda externa

Se um adolescente mostrar sinais de angústia, os pais devem envolver adultos ou profissionais de confiança. As ferramentas de segurança de IA não podem substituir os cuidados no mundo actual.

QUANDO AI CHEATS: OS PERIGOS OCULTOS DO HACKING DE RECOMPENSAS

Laptop aberto para ChatGPT.

Os legisladores e os defensores da segurança infantil exigem salvaguardas mais fortes, à medida que os adolescentes dependem cada vez mais de chatbots de IA. (Fotógrafo: Gabby Jones/Bloomberg by way of Getty Photographs)

Dica profissional: adicione software program antivírus forte e autenticação multifator

Pais e adolescentes devem ativar a autenticação multifator (AMF) em contas AI de adolescentes sempre que estiver disponível. OpenAI permite que os usuários ativem a autenticação multifator para contas ChatGPT.

Para habilitá-lo, vá para OpenAI.com e faça login. Function para baixo e clique no ícone de perfile selecione Configurações e escolha Segurança. A partir daí, ligue autenticação multifator (MFA). Você terá então duas opções. Uma opção usa um aplicativo autenticador, que gera códigos únicos durante o login. Outra opção envia códigos de verificação de 6 dígitos por mensagem de texto by way of SMS ou WhatsApp, dependendo do código do país. A ativação da autenticação multifator adiciona uma camada additional de proteção além da senha e ajuda a reduzir o risco de acesso não autorizado a contas de adolescentes.

Além disso, considere adicionar um software program antivírus forte que possa ajudar a bloquear hyperlinks maliciosos, downloads falsos e outras ameaças que os adolescentes podem encontrar ao usar ferramentas de IA. Isso adiciona uma camada additional de proteção além de qualquer aplicativo ou plataforma. O uso conjunto de proteção antivírus forte e autenticação de dois fatores ajuda a reduzir o risco de invasões de contas que podem expor os adolescentes a conteúdo inseguro ou riscos de falsificação de identidade.

Obtenha minhas escolhas dos melhores vencedores de proteção antivírus de 2025 para seus dispositivos Home windows, Mac, Android e iOS em Cyberguy. com.

Faça meu teste: Quão segura é sua segurança on-line?

Você acha que seus dispositivos e dados estão realmente protegidos? Faça este teste rápido para ver onde estão seus hábitos digitais. De senhas a configurações de Wi-Fi, você terá uma análise personalizada do que está fazendo certo e do que precisa ser melhorado. Faça meu teste aqui: Cyberguy. com.

CLIQUE AQUI PARA BAIXAR O APLICATIVO FOX NEWS

Principais conclusões de Kurt

As regras atualizadas de segurança para adolescentes da OpenAI mostram que a empresa está levando a sério as preocupações crescentes. Limites mais claros, salvaguardas mais fortes e mais transparência são passos na direção certa. Ainda assim, as políticas no papel não são iguais ao comportamento em conversas reais. Para os adolescentes que dependem da IA ​​todos os dias, o que mais importa é como estes sistemas respondem em momentos de stress, confusão ou vulnerabilidade. É aí que a confiança é construída ou perdida. Para os pais, este momento pede equilíbrio. As ferramentas de IA podem ser úteis e criativas. Eles também exigem orientação, limites e supervisão. Nenhum conjunto de controles pode substituir conversas reais ou suporte humano. À medida que a IA se torna mais integrada na nossa vida quotidiana, o foco deve permanecer nos resultados e não nas intenções. A proteção dos adolescentes dependerá de uma aplicação consistente, de uma supervisão independente e do envolvimento ativo da família.

Os adolescentes deveriam confiar na IA para obter apoio emocional ou essas conversas deveriam permanecer sempre humanas? Informe-nos escrevendo para nós em Cyberguy. com.

Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente em sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Final Rip-off Survival Information – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.

Copyright 2025 CyberGuy.com. Todos os direitos reservados.

avots