OpenAI sedang mencari “kepala kesiapsiagaan” baru untuk memandu strategi keselamatan perusahaan di tengah meningkatnya kekhawatiran mengenai bagaimana alat kecerdasan buatan dapat disalahgunakan.
Menurut pekerjaan postingkaryawan baru tersebut akan dibayar $555.000 untuk memimpin tim sistem keselamatan perusahaan, yang menurut OpenAI berfokus untuk memastikan mannequin AI “dikembangkan dan diterapkan secara bertanggung jawab.” Kepala bagian kesiapsiagaan juga akan ditugaskan untuk melacak risiko dan mengembangkan strategi mitigasi untuk apa yang disebut OpenAI sebagai “kemampuan terdepan yang menciptakan risiko baru yang menimbulkan dampak buruk.”
“Ini akan menjadi pekerjaan yang menegangkan dan Anda akan segera terjun ke dalam situasi terdalam,” tulis CEO Sam Altman dalam sebuah pernyataan X posting yang menjelaskan posisi selama akhir pekan.
Ia menambahkan, “Ini adalah peran yang sangat penting di saat yang penting; para mannequin berkembang dengan cepat dan kini mampu melakukan banyak hal hebat, namun model-model tersebut juga mulai menghadirkan beberapa tantangan nyata.”
OpenAI tidak segera menanggapi permintaan komentar.
Investasi perusahaan dalam upaya keselamatan terjadi ketika pengawasan semakin ketat terhadap pengaruh kecerdasan buatan terhadap kesehatan psychological, menyusul beberapa hal tuduhan bahwa chatbot OpenAI, ChatGPT, terlibat dalam interaksi sebelum sejumlah kasus bunuh diri.
Dalam satu kasus awal tahun ini diliput oleh CBS Informationorang tua dari seorang anak berusia 16 tahun menggugat perusahaan tersebut, dengan tuduhan bahwa ChatGPT mendorong putra mereka untuk merencanakan bunuh diri. Hal ini mendorong OpenAI untuk mengumumkan protokol keamanan baru untuk pengguna di bawah 18 tahun.
ChatGPT juga diduga memicu hal a gugatan diajukan awal bulan ini digambarkan sebagai “delusi paranoid” dari seorang pria berusia 56 tahun yang membunuh ibunya dan kemudian bunuh diri. Pada saat itu, OpenAI mengatakan pihaknya sedang berupaya meningkatkan teknologinya untuk membantu ChatGPT mengenali dan merespons tanda-tanda tekanan psychological atau emosional, mengurangi ketegangan percakapan, dan membimbing orang menuju dukungan di dunia nyata.
Selain masalah kesehatan psychological, kekhawatiran juga meningkat mengenai bagaimana kecerdasan buatan dapat digunakan untuk melakukan serangan keamanan siber. Samantha Vinograd, kontributor CBS Information dan mantan pejabat tinggi Keamanan Dalam Negeri di pemerintahan Obama, membahas masalah ini di CBS Information’ “Hadapi Bangsa bersama Margaret Brennan” pada hari Minggu.
“AI tidak hanya menyamakan kedudukan bagi aktor-aktor tertentu,” katanya. “Ini benar-benar membawa pemain baru ke lapangan, karena individu, aktor non-negara, memiliki akses terhadap teknologi berbiaya rendah yang membuat berbagai jenis ancaman menjadi lebih kredibel dan efektif.”
Altman mengakui semakin besarnya bahaya keselamatan yang ditimbulkan oleh AI dalam postingan X-nya, ia menulis bahwa meskipun mannequin dan kemampuannya telah berkembang pesat, tantangan juga mulai muncul.
“Dampak potensial dari mannequin terhadap kesehatan psychological adalah sesuatu yang kita lihat pada pratinjaunya pada tahun 2025; kita baru saja melihat mannequin menjadi sangat baik dalam keamanan komputer sehingga mereka mulai menemukan kerentanan kritis,” tulisnya.
Kini, lanjutnya, “Kita memasuki dunia di mana kita memerlukan pemahaman dan pengukuran yang lebih mendalam mengenai bagaimana kemampuan tersebut dapat disalahgunakan, dan bagaimana kita dapat membatasi dampak negatifnya… dengan cara yang memungkinkan kita semua menikmati manfaat yang luar biasa.”
Menurut lowongan pekerjaan tersebut, pelamar yang memenuhi syarat akan memiliki “keahlian teknis yang mendalam dalam pembelajaran mesin, keselamatan AI, evaluasi, keamanan atau area risiko yang berdekatan” dan memiliki pengalaman dalam “merancang atau melaksanakan evaluasi yang sangat ketat untuk sistem teknis yang kompleks,” di antara kualifikasi lainnya.
OpenAI pertama kali mengumumkan pembentukan tim kesiapsiagaan pada tahun 2023, menurut TechCrunch.dll.













