Beranda Teknologi Saya Memohon Anda untuk Berhenti Antropomorfisasi AI. Inilah Mengapa Ini Berbahaya

Saya Memohon Anda untuk Berhenti Antropomorfisasi AI. Inilah Mengapa Ini Berbahaya

11
0

 

Dalam perlombaan untuk membuat model AI tampil semakin mengesankan, perusahaan teknologi telah mengadopsi pendekatan bahasa yang teatrikal. Mereka terus berbicara tentang AI seolah-olah itu adalah manusia. Bukan hanya tentang “pemikiran” atau “perencanaan” AI — kata-kata itu sudah penuh makna — tapi sekarang mereka sedang mendiskusikan sebuah “jiwa” model AI dan bagaimana model “mengaku”, “menginginkan”, “merencanakan”, atau “merasa tidak yakin”.

 

Ini bukanlah perkembangan pemasaran yang tidak berbahaya. Antropomorfisasi AI menyesatkan, tidak bertanggung jawab, dan pada akhirnya merusak pemahaman masyarakat tentang teknologi yang sudah berjuang melawan transparansi, pada saat kejelasan menjadi hal yang paling penting.

Penelitian dari perusahaan AI besar, yang dimaksudkan untuk menjelaskan perilaku AI generatif, sering kali dibingkai dengan cara yang mengaburkan, bukan mencerahkan. Ambil contoh, postingan terbaru dari OpenAI yang merinci pekerjaannya untuk membuat modelnya “mengakui” kesalahan atau jalan pintasnya. Ini adalah eksperimen berharga yang menyelidiki bagaimana chatbot melaporkan sendiri “perilaku buruk” tertentu, seperti halusinasi dan tipu muslihat. Namun deskripsi OpenAI tentang proses tersebut sebagai sebuah “pengakuan” menyiratkan bahwa ada elemen psikologis di balik keluaran model bahasa yang besar.

Mungkin hal ini berasal dari kesadaran betapa menantangnya bagi LLM untuk mencapai transparansi sejati. Kita telah melihat bahwa, misalnya, model AI tidak dapat secara andal mendemonstrasikan pekerjaannya dalam aktivitas seperti itu memecahkan teka-teki Sudoku.

Ada kesenjangan di antara keduanya Apa AI dapat menghasilkan dan Bagaimana ia menghasilkannya, itulah sebabnya terminologi mirip manusia ini sangat berbahaya. Kita mungkin sedang mendiskusikan batasan dan bahaya sebenarnya dari teknologi ini, namun istilah yang menyebut AI sebagai makhluk yang sadar hanya meminimalkan kekhawatiran atau mengabaikan risikonya.


Jangan lewatkan konten teknologi dan ulasan berbasis laboratorium kami yang tidak memihak. Tambahkan CNET sebagai sumber Google pilihan.


AI tidak memiliki jiwa

Sistem AI tidak memiliki jiwa, motif, perasaan atau moral. Mereka tidak “mengaku” karena mereka merasa terdorong oleh kejujuran, seperti halnya kalkulator “meminta maaf” ketika Anda menekan tombol yang salah. Sistem ini menghasilkan pola teks berdasarkan hubungan statistik yang dipelajari dari kumpulan data yang sangat besar.

Itu saja.

Segala sesuatu yang terasa manusiawi adalah proyeksi kehidupan batin kita ke dalam cermin yang sangat canggih.

Anthropomorphizing AI memberi orang gambaran yang salah tentang apa sebenarnya sistem ini. Dan itu mempunyai konsekuensi. Saat kita mulai memberikan kesadaran dan kecerdasan emosional pada suatu entitas yang sebenarnya tidak ada, kita mulai memercayai AI dengan cara yang tidak pernah dimaksudkan untuk dipercaya.

Saat ini, semakin banyak orang yang beralih ke “Dokter ChatGPT” untuk bimbingan medis daripada mengandalkan dokter berlisensi dan berkualifikasi. Pihak lain beralih ke respons yang dihasilkan AI di bidang-bidang seperti keuangan, kesehatan emosional dan hubungan interpersonal. Beberapa membentuk ketergantungan persahabatan semu dengan chatbots dan tunduk pada mereka untuk mendapatkan bimbingan, dengan asumsi bahwa apa pun yang dilontarkan LLM “cukup baik” untuk menginformasikan keputusan dan tindakan mereka.

Bagaimana kita harus berbicara tentang AI

Ketika perusahaan bersandar pada bahasa antropomorfik, mereka mengaburkan batas antara simulasi dan perasaan. Terminologi ini meningkatkan ekspektasi, memicu ketakutan, dan mengalihkan perhatian dari isu-isu nyata yang sebenarnya patut kita perhatikan: bias dalam kumpulan data, penyalahgunaan oleh pelaku kejahatan, keamanan, keandalan, dan konsentrasi kekuasaan. Tak satu pun dari topik tersebut memerlukan metafora mistis.

Ambil contoh kebocoran terbaru Anthropic tentang “dokumen jiwa,” digunakan untuk melatih karakter, persepsi diri, dan identitas Claude Opus 4.5. Dokumentasi internal yang lucu ini tidak pernah dimaksudkan untuk membuat klaim metafisik — lebih seperti para insinyurnya sedang mempelajari panduan debugging. Namun, bahasa yang digunakan perusahaan-perusahaan ini secara tertutup pasti akan meresap ke dalam cara masyarakat umum mendiskusikannya. Dan begitu bahasa tersebut melekat, hal itu akan membentuk pemikiran kita tentang teknologi, serta cara kita berperilaku di sekitarnya.

Atau ikuti penelitian OpenAI Penelitian “licik” AIdi mana beberapa tanggapan yang jarang namun menipu membuat beberapa peneliti menyimpulkan bahwa model sengaja menyembunyikan kemampuan tertentu. Meneliti hasil AI adalah praktik yang baik; menyiratkan bahwa chatbot mungkin memiliki motif atau strateginya sendiri. Laporan OpenAI sebenarnya mengatakan bahwa perilaku ini adalah hasil dari data pelatihan dan tren tertentu, bukan tanda-tanda penipuan. Namun karena menggunakan kata “licik”, pembicaraan beralih ke kekhawatiran bahwa AI adalah semacam agen yang licik.

Ada kata-kata yang lebih baik, lebih akurat dan lebih teknis. Daripada menggunakan “jiwa”, bicarakan tentang arsitektur atau pelatihan model. Alih-alih “pengakuan”, sebut saja pelaporan kesalahan atau pemeriksaan konsistensi internal. Daripada menyebut model sebagai “skema”, jelaskan proses pengoptimalannya. Kita harus mengacu pada AI menggunakan istilah seperti tren, keluaran, representasi, pengoptimal, pembaruan model, atau dinamika pelatihan. Kata-kata tersebut tidak sedramatis “jiwa” atau “pengakuan”, namun memiliki keuntungan karena didasarkan pada kenyataan.

Agar adil, ada alasan mengapa perilaku LLM ini tampak manusiawi — perusahaan melatih mereka untuk meniru kita.

Sebagai penulis makalah tahun 2021 “Tentang Bahaya Burung Beo Stochastic” Ditegaskan, sistem yang dibangun untuk meniru bahasa dan komunikasi manusia pada akhirnya akan mencerminkan hal tersebut — kata-kata, sintaksis, nada, dan tenor kita. Kemiripan tersebut tidak menyiratkan pemahaman yang benar. Artinya, model tersebut melakukan apa yang telah dioptimalkan untuk dilakukan. Ketika chatbot meniru dengan meyakinkan seperti yang mampu dilakukan chatbots, kita akhirnya membaca manusia ke dalam mesin, meskipun hal seperti itu tidak ada.

Bahasa membentuk persepsi masyarakat. Ketika kata-kata dibuat ceroboh, magis, atau sengaja dibuat antropomorfik, masyarakat akan mendapatkan gambaran yang menyimpang. Distorsi tersebut hanya menguntungkan satu kelompok: perusahaan AI yang memperoleh keuntungan dari LLM tampak lebih mampu, berguna, dan manusiawi dibandingkan yang sebenarnya.

Jika perusahaan AI ingin membangun kepercayaan publik, langkah pertamanya sederhana. Berhentilah memperlakukan model bahasa seperti makhluk mistik yang memiliki jiwa. Mereka tidak punya perasaan — kita punya. Kata-kata kita harus mencerminkan hal itu, bukan mengaburkannya.

Baca juga: Di Era AI, Seperti Apa Maknanya?

avotas