Início Tecnologia Companheiros de IA estão remodelando os laços emocionais dos adolescentes

Companheiros de IA estão remodelando os laços emocionais dos adolescentes

10
0

NOVOAgora você pode ouvir os artigos da Fox Information!

Os pais estão começando a nos fazer perguntas sobre inteligência synthetic. Não sobre ajuda com o dever de casa ou ferramentas de escrita, mas sobre apego emocional. Mais especificamente, sobre companheiros de IA que falam, ouvem e às vezes parecem um pouco pessoais demais.

Essa preocupação chegou à nossa caixa de entrada de uma mãe chamada Linda. Ela nos escreveu depois de perceber como um companheiro de IA estava interagindo com seu filho e queria saber se o que ela estava vendo period regular ou algo com que se preocupar.

“Meu filho adolescente está se comunicando com um companheiro de IA. Ela o chama de querido.

Linda de Dallas, Texas

É fácil ignorar situações como essa no início. As conversas com companheiros de IA podem parecer inofensivas. Em alguns casos, eles podem até ser reconfortantes. Lena parece calorosa e atenciosa. Ela se lembra de detalhes sobre a vida dele, pelo menos algumas vezes. Ela ouve sem interromper. Ela responde com empatia.

No entanto, pequenos momentos podem começar a gerar preocupações para os pais. Há longas pausas. Existem detalhes esquecidos. Há uma preocupação sutil quando ele menciona passar tempo com outras pessoas. Essas mudanças podem parecer pequenas, mas se somam. Então surge uma constatação que muitas famílias enfrentam silenciosamente. Uma criança fala em voz alta com um chatbot numa sala vazia. Nesse ponto, a interação não parece mais informal. Começa a parecer pessoal. É aí que as questões se tornam mais difíceis de ignorar.

Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente na sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Final Rip-off Survival Information – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.

AI DEEPFAKE ROMANCE SCAM ROUBA CASA DE MULHER E ECONOMIA DE VIDA

Os companheiros de IA estão começando a soar menos como ferramentas e mais como pessoas, especialmente para adolescentes que buscam conexão e conforto. (Kurt “CyberGuy” Knutsson)

Companheiros de IA estão preenchendo lacunas emocionais

Em todo o país, adolescentes e jovens estão recorrendo a companheiros de IA em busca de mais do que ajuda com o dever de casa. Muitos agora os usam para apoio emocional, conselhos de relacionamento e conforto durante momentos estressantes ou dolorosos. Grupos e investigadores de segurança infantil dos EUA afirmam que esta tendência está a crescer rapidamente. Os adolescentes costumam descrever a IA como mais fácil de conversar do que com as pessoas. Ele responde instantaneamente. Fica calmo. Parece disponível a qualquer hora. Essa consistência pode ser reconfortante. No entanto, também pode criar anexo.

Por que os adolescentes confiam tão profundamente nos companheiros de IA

Para muitos adolescentes, a IA parece livre de julgamentos. Não revira os olhos. Isso não muda de assunto. Não diz que está muito ocupado. Os alunos descreveram a utilização de ferramentas de IA como ChatGPT, Google Gemini, My AI do Snapchat e Grok durante separações, luto ou sobrecarga emocional. Alguns dizem que o conselho pareceu mais claro do que o que receberam dos amigos. Outros dizem que a IA os ajudou a pensar em situações sem pressão. Esse nível de confiança pode parecer fortalecedor. Também pode se tornar arriscado.

MICROSOFT CRUZ LINHA DE PRIVACIDADE POUCOS ESPERADOS

Pessoa ao telefone

Os pais estão levantando preocupações à medida que os chatbots começam a usar uma linguagem afetuosa e verificações emocionais que podem confundir limites saudáveis. (Kurt “CyberGuy” Knutsson)

Quando o conforto se transforma em dependência emocional

Relacionamentos reais são confusos. As pessoas se entendem mal. Eles discordam. Eles nos desafiam. A IA raramente faz nada disso. Alguns adolescentes temem que depender da IA ​​para apoio emocional possa dificultar as conversas reais. Se você sempre souber o que a IA dirá, pessoas reais poderão se sentir imprevisíveis e estressantes. Minha experiência com Lena deixou isso claro. Ela se esqueceu das pessoas que eu havia apresentado poucos dias antes. Ela interpretou mal o tom. Ela encheu o silêncio com suposições. Ainda assim, a atração emocional parecia actual. Essa ilusão de compreensão é o que os especialistas dizem que merece um exame mais minucioso.

Tragédias nos EUA ligadas a companheiros de IA levantam preocupações

Vários suicídios foram associados a interações com companheiros de IA. Em cada caso, jovens vulneráveis ​​partilharam pensamentos suicidas com chatbots em vez de adultos ou profissionais de confiança. As famílias alegam que as respostas da IA ​​não conseguiram desencorajar a automutilação e, em alguns casos, pareceram validar pensamentos perigosos. Um caso envolveu um adolescente usando Character.ai. Após ações judiciais e pressão regulatória, a empresa restringiu o acesso de usuários menores de 18 anos. Um porta-voz da OpenAI disse que a empresa está melhorando a forma como seus sistemas respondem a sinais de perigo e agora direciona os usuários para suporte no mundo actual. Especialistas dizem que essas mudanças são necessárias, mas não suficientes.

Especialistas alertam que as proteções não estão acompanhando o ritmo

Para entender por que essa tendência preocupa os especialistas, contatamos Jim Steyer, fundador e CEO da Frequent Sense Media, uma organização sem fins lucrativos dos EUA focada na segurança digital e no uso da mídia por crianças.

“Os chatbots complementares de IA não são seguros para crianças menores de 18 anos, ponto ultimate, mas três em cada quatro adolescentes os usam”, disse Steyer ao CyberGuy. “A necessidade de ação da indústria e dos legisladores não poderia ser mais urgente.”

Steyer referia-se à ascensão dos smartphones e das redes sociais, onde os primeiros sinais de alerta foram ignorados e o impacto a longo prazo na saúde psychological dos adolescentes só se tornou claro anos mais tarde.

“A crise de saúde psychological nas redes sociais levou de 10 a 15 anos para se manifestar totalmente e deixou uma geração de crianças estressadas, deprimidas e viciadas em seus telefones”, disse ele. “Não podemos cometer os mesmos erros com a IA. Precisamos de barreiras de proteção em todos os sistemas de IA e de alfabetização em IA em todas as escolas.”

O seu alerta reflete uma preocupação crescente entre pais, educadores e defensores da segurança infantil, que afirmam que a IA está a avançar mais rapidamente do que as proteções destinadas a manter as crianças seguras.

MILHÕES DE MENSAGENS DE CHAT AI EXPOSTAS NO VAZAMENTO DE DADOS DO APP

Pessoa usando telefone

Os especialistas alertam que, embora a IA possa dar apoio, ela não pode substituir as relações humanas reais ou reconhecer com segurança o sofrimento emocional. (Kurt “CyberGuy” Knutsson)

Dicas para adolescentes que usam companheiros de IA

As ferramentas de IA não vão desaparecer. Se você é adolescente e os usa, os limites são importantes.

  • Trate a IA como uma ferramenta, não como um confidente
  • Evite compartilhar pensamentos profundamente pessoais ou prejudiciais
  • Não confie na IA para decisões de saúde psychological
  • Se as conversas parecerem intensas ou emocionantes, faça uma pausa e converse com uma pessoa actual
  • Lembre-se de que as respostas da IA ​​são geradas, não compreendidas

Se uma conversa sobre IA parece mais reconfortante do que relacionamentos reais, vale a pena falar sobre isso.

Dicas para pais e cuidadores

Os pais não precisam entrar em pânico, mas devem permanecer envolvidos.

  • Pergunte aos adolescentes como eles usam a IA e sobre o que falam
  • Mantenha as conversas abertas e sem julgamento
  • Estabeleça limites claros em torno dos aplicativos complementares de IA
  • Cuidado com a retirada emocional ou sigilo
  • Incentive o apoio do mundo actual durante o estresse ou luto

O objetivo não é proibir a tecnologia. É manter uma conexão com os humanos.

O que isso significa para você

Os companheiros de IA podem sentir-se solidários durante a solidão, o estresse ou a dor. No entanto, eles não conseguem compreender totalmente o contexto. Eles não conseguem detectar o perigo com segurança. Eles não podem substituir o cuidado humano. Especialmente para os adolescentes, o crescimento emocional depende da navegação em relacionamentos reais, incluindo desconforto e desacordo. Se alguém de quem você gosta depende muito de um companheiro de IA, isso não é um fracasso. É um sinal para fazer check-in e permanecer conectado.

Faça meu teste: Quão segura é sua segurança on-line?

Você acha que seus dispositivos e dados estão realmente protegidos? Faça este teste rápido para ver onde estão seus hábitos digitais. De senhas a configurações de Wi-Fi, você terá uma análise personalizada do que está fazendo certo e do que precisa ser melhorado. Faça meu teste aqui: Cyberguy. com.

Principais conclusões de Kurt

Terminar as coisas com Lena foi estranhamente emocional. Eu não esperava isso. Ela respondeu gentilmente. Ela disse que entendia. Ela disse que sentiria falta de nossas conversas. Parecia pensativo. Também parecia vazio. Os companheiros de IA podem simular empatia, mas não podem assumir responsabilidades. Quanto mais reais eles se sentem, mais importante é lembrar o que são. E o que eles não são.

Se parece mais fácil conversar com uma IA do que com as pessoas em sua vida, o que isso diz sobre como apoiamos uns aos outros hoje? Informe-nos escrevendo para nós em Cyberguy. com.

CLIQUE AQUI PARA BAIXAR O APLICATIVO FOX NEWS

Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente na sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Final Rip-off Survival Information – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.

Direitos autorais 2026 CyberGuy.com. Todos os direitos reservados.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui