Beranda Teknologi Orang-orang Menggunakan Sora 2 untuk Membuat Video yang Mengganggu dengan Anak-Anak Buatan...

Orang-orang Menggunakan Sora 2 untuk Membuat Video yang Mengganggu dengan Anak-Anak Buatan AI

1
0

 

Pada tanggal 7 Oktober, akun TikTok bernama @fujitiva48 melontarkan pertanyaan provokatif di samping video terbarunya. “Apa pendapat Anda tentang mainan baru untuk anak kecil ini?” mereka bertanya kepada lebih dari 2.000 pemirsa, yang menemukan apa yang tampak seperti parodi iklan TV. Responsnya jelas. “Hei, jadi ini tidak lucu,” tulis seseorang. “Siapa pun yang membuat ini harus diselidiki.”

Sangat mudah untuk melihat mengapa video tersebut menimbulkan reaksi yang begitu keras. Iklan palsu dibuka dengan seorang gadis muda fotorealistik memegang mainan—merah muda, berkilau, seekor lebah menghiasi pegangannya. Itu adalah pena, kami diberitahu, saat gadis itu dan dua orang lainnya mencoret-coret kertas sementara sulih suara pria dewasa menceritakannya. Namun terbukti bahwa desain bunga, kemampuan berdengung, dan namanya—Vibro Rose—terlihat dan terdengar sangat mirip dengan mainan seks. Tombol “tambahkan milik Anda”—fitur di TikTok yang mendorong orang untuk membagikan video di feed mereka—dengan kata-kata, “Saya menggunakan mainan mawar saya,” menghilangkan sedikit pun keraguan. (WIRED menghubungi akun @ fujitiva48 untuk memberikan komentar, tetapi tidak mendapat tanggapan.)

Klip buruk ini dibuat menggunakan Sora 2, generator video terbaru OpenAI, yang awalnya dirilis hanya melalui undangan di AS pada tanggal 30 September. Hanya dalam kurun waktu satu minggu, video seperti klip Vibro Rose telah bermigrasi dari Sora dan masuk ke Halaman For You TikTok. Beberapa iklan palsu lainnya bahkan lebih eksplisit, dengan WIRED menemukan beberapa akun memposting video serupa buatan Sora 2 yang menampilkan mainan air berbentuk mawar atau jamur dan penghias kue yang menyemprotkan “susu lengket”, “busa putih”, atau “lendir” ke gambar anak-anak yang seperti aslinya.

Di banyak negara, hal di atas akan menjadi dasar penyelidikan apakah anak-anak tersebut benar-benar anak-anak, bukan hasil penggabungan digital. Namun undang-undang mengenai konten fetish yang dihasilkan AI yang melibatkan anak di bawah umur masih belum jelas. Data baru tahun 2025 dari Yayasan Pengawasan Internet di Inggris mencatat bahwa laporan materi pelecehan seksual terhadap anak yang dihasilkan oleh AI, atau CSAM, telah meningkat dua kali lipat dalam kurun waktu satu tahun dari 199 antara Januari-Oktober 2024 menjadi 426 pada periode yang sama tahun 2025. Lima puluh enam persen dari konten ini termasuk dalam Kategori A—kategori paling serius di Inggris yang melibatkan aktivitas seksual penetrasi, aktivitas seksual dengan hewan, atau sadisme. 94 persen gambar AI ilegal yang dilacak oleh IWF adalah gambar anak perempuan. (Sora tampaknya tidak menghasilkan konten Kategori A apa pun.)

“Seringkali, kita melihat kemiripan anak-anak dikomodifikasi untuk menciptakan gambar telanjang atau seksual dan, yang paling sering kita lihat, kita melihat AI digunakan untuk membuat gambar anak perempuan. Ini adalah cara lain untuk menargetkan anak perempuan secara online,” Kerry Smith, CEO IWF, mengatakan kepada WIRED.

Masuknya materi berbahaya yang dihasilkan oleh AI telah mendorong Inggris untuk memperkenalkan a amandemen baru terhadap RUU Kejahatan dan Perpolisianyang akan memungkinkan “penguji resmi” untuk memeriksa apakah alat kecerdasan buatan tidak mampu menghasilkan CSAM. Seperti yang dilaporkan BBC, amandemen ini akan memastikan para model memiliki perlindungan terhadap gambar-gambar tertentu, termasuk pornografi ekstrem dan gambar-gambar intim non-konsensual pada khususnya. Di AS, 45 negara bagian telah menerapkan undang-undang yang melarang hal ini mengkriminalisasi CSAM yang dihasilkan AIsebagian besar terjadi dalam dua tahun terakhir, seiring dengan terus berkembangnya generator AI.

avotas

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini