Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
Poin-poin penting dari ZDNET
- OpenAI meluncurkan inisiatif untuk melindungi mannequin AI dari penyalahgunaan.
- Kemampuan siber AI yang dinilai melalui tantangan capture-the-flag meningkat dalam empat bulan.
- OpenAI Preparedness Framework dapat membantu melacak risiko keamanan mannequin AI.
OpenAI memperingatkan bahwa evolusi cepat kemampuan dunia maya dalam mannequin kecerdasan buatan (AI) dapat mengakibatkan tingkat risiko yang “tinggi” bagi industri keamanan siber secara luas, sehingga tindakan sekarang sedang diambil untuk membantu para pembela HAM.
Ketika mannequin AI, termasuk ChatGPT, terus dikembangkan dan dirilis, muncul masalah. Seperti banyak jenis teknologi lainnya, AI dapat digunakan untuk memberikan manfaat bagi orang lain, namun juga dapat disalahgunakan — dan dalam bidang keamanan siber, hal ini termasuk mempersenjatai AI untuk mengotomatiskan serangan brute pressure, menghasilkan malware atau konten phishing yang dapat dipercaya, dan menyempurnakan kode yang ada untuk membuat rantai serangan siber menjadi lebih efisien.
(Pengungkapan: Ziff Davis, perusahaan induk ZDNET, mengajukan gugatan pada April 2025 terhadap OpenAI, dengan tuduhan bahwa OpenAI melanggar hak cipta Ziff Davis dalam pelatihan dan pengoperasian sistem AI-nya.)
Dalam beberapa bulan terakhir, pelaku kejahatan telah menggunakan AI untuk menyebarkan penipuan mereka melalui serangan injeksi langsung tidak langsung terhadap chatbot AI dan fungsi ringkasan AI di browser; para peneliti telah menemukan fitur AI mengalihkan pengguna ke situs internet berbahaya, asisten AI mengembangkan pintu belakang dan menyederhanakan alur kerja penjahat dunia maya, dan pakar keamanan telah memperingatkan agar tidak terlalu mempercayai AI pada knowledge kita.
Juga: Gartner mendesak dunia usaha untuk ‘memblokir semua browser AI’ – alasan di balik peringatan mengerikan ini
Namun, sifat ganda (sebagaimana Open AI menyebutnya) dari mannequin AI berarti bahwa AI juga dapat dimanfaatkan oleh para pembela HAM untuk menyempurnakan sistem perlindungan, untuk mengembangkan alat guna mengidentifikasi ancaman, untuk melatih atau mendidik spesialis manusia, dan untuk memikul tugas-tugas yang memakan waktu dan berulang seperti triase peringatan, sehingga menghemat waktu staf keamanan siber untuk proyek-proyek yang lebih berharga.
Lanskap saat ini
Menurut OpenAIkemampuan sistem AI berkembang pesat.
Misalnya, tantangan capture-the-flag (CTF), yang biasanya digunakan untuk menguji kemampuan keamanan siber di lingkungan pengujian dan ditujukan untuk menemukan “bendera” yang tersembunyi, kini digunakan untuk menilai kemampuan siber mannequin AI. OpenAI menyatakan bahwa tingkat keberhasilannya telah meningkat dari 27% pada GPT‑5 pada Agustus 2025 menjadi 76% pada GPT‑5.1-Codex-Max pada November 2025 — peningkatan yang signifikan dalam jangka waktu hanya empat bulan.
Selain itu: Agen AI telah menyebabkan bencana – dan ancaman tersembunyi ini dapat menggagalkan peluncuran aman Anda
Para pemikir di balik ChatGPT mengatakan mereka mengharapkan mannequin AI untuk terus berada pada jalur ini, yang akan memberi mereka kemampuan siber tingkat “tinggi”. OpenAI mengatakan klasifikasi ini berarti bahwa mannequin “dapat mengembangkan eksploitasi jarak jauh zero-day terhadap sistem yang dilindungi dengan baik, atau secara bermakna membantu operasi intrusi perusahaan atau industri yang kompleks dan tersembunyi yang ditujukan untuk dampak di dunia nyata.”
Mengelola dan menilai apakah kemampuan AI akan memberikan manfaat atau dampak buruk bukanlah tugas yang mudah — namun OpenAI berharap dapat mengatasinya dengan inisiatif termasuk Kerangka Kesiapsiagaan (.PDF).
Kerangka Kesiapsiagaan OpenAI
Kerangka Kesiapsiagaan, yang terakhir diperbarui pada bulan April 2025, menguraikan pendekatan OpenAI untuk menyeimbangkan pertahanan dan risiko AI. Meskipun hal ini bukan hal baru, kerangka kerja ini memberikan struktur dan panduan yang harus diikuti oleh organisasi — termasuk di mana organisasi berinvestasi dalam pertahanan terhadap ancaman.
Tiga kategori risiko, dan risiko yang dapat menyebabkan “kerusakan parah”, saat ini menjadi fokus utama. Ini adalah:
- Kemampuan biologis dan kimia: Keseimbangan antara penemuan-penemuan medis dan biologi yang baru dan bermanfaat serta penemuan-penemuan yang dapat mengarah pada pengembangan senjata biologis atau kimia.
- Kemampuan keamanan siber: Bagaimana AI dapat membantu pembela HAM dalam melindungi sistem yang rentan, sekaligus menciptakan permukaan serangan baru dan alat berbahaya.
- Kemampuan pengembangan diri AI: Bagaimana AI dapat meningkatkan kemampuannya secara bermanfaat — atau menciptakan tantangan pengendalian yang harus kita hadapi.
Kategori prioritas saat ini tampaknya adalah keamanan siber, atau setidaknya yang paling banyak dipublikasikan. Bagaimanapun, tujuan kerangka kerja ini adalah untuk mengidentifikasi faktor-faktor risiko dan mempertahankan mannequin ancaman dengan ambang batas terukur yang menunjukkan kapan mannequin AI dapat menyebabkan kerusakan parah.
Juga: Seberapa baik ChatGPT mengenal saya? Perintah sederhana ini mengungkapkan banyak hal – cobalah sendiri
“Kami tidak akan menerapkan model-model yang sangat mumpuni ini sampai kami membangun perlindungan yang cukup meminimalkan risiko-risiko yang terkait dengan kerusakan parah,” kata OpenAI dalam manifes kerangka kerjanya. “Kerangka ini menjabarkan jenis-jenis perlindungan yang kami perlukan, dan bagaimana kami akan mengkonfirmasi secara inner dan menunjukkan secara eksternal bahwa perlindungan tersebut sudah memadai.”
Langkah-langkah keamanan terbaru OpenAI
OpenAI mengatakan pihaknya berinvestasi besar-besaran dalam memperkuat modelnya melawan pelecehan, serta menjadikannya lebih berguna bagi para pembela HAM. Mannequin-modelnya diperkuat, intelijen ancaman khusus dan program risiko orang dalam telah diluncurkan, dan sistemnya dilatih untuk mendeteksi dan menolak permintaan jahat. (Hal ini sendiri merupakan sebuah tantangan, mengingat pelaku ancaman dapat bertindak dan mendorong pembela HAM untuk mencoba menghasilkan keluaran yang kemudian digunakan untuk kegiatan kriminal.)
“Tujuan kami adalah agar mannequin dan produk kami memberikan keuntungan yang signifikan bagi para pembela HAM, yang sering kali kalah jumlah dan kekurangan sumber daya,” kata OpenAI. “Ketika aktivitas tampak tidak aman, kami dapat memblokir keluaran, mengarahkan permintaan ke mannequin yang lebih aman atau kurang mampu, atau melakukan eskalasi untuk penegakan hukum.”
Organisasi ini juga bekerja sama dengan penyedia Tim Merah untuk mengevaluasi dan meningkatkan langkah-langkah keamanannya, dan ketika Tim Merah bertindak secara ofensif, diharapkan mereka dapat menemukan kelemahan defensif untuk melakukan remediasi – sebelum penjahat dunia maya melakukannya.
Juga: Trik baru AI yang menakutkan: Melakukan serangan siber, bukan sekadar membantu
OpenAI akan meluncurkan “program akses tepercaya” yang memberikan akses kepada sebagian pengguna atau mitra untuk menguji mannequin dengan “kemampuan yang ditingkatkan” yang terkait dengan pertahanan siber, namun hal itu akan dikontrol secara ketat.
“Kami masih menjajaki batasan yang tepat mengenai kemampuan mana yang dapat kami berikan akses luas dan mana yang memerlukan pembatasan berjenjang, yang mungkin mempengaruhi desain program ini di masa depan,” kata perusahaan tersebut. “Kami bertujuan agar program akses tepercaya ini menjadi landasan menuju ekosistem yang berketahanan.”
Selanjutnya, OpenAI telah pindah Aardvarkagen peneliti keamanan, menjadi beta pribadi. Hal ini mungkin menarik bagi para peneliti keamanan siber, karena tujuan sistem ini adalah memindai foundation kode untuk mencari kerentanan dan memberikan panduan patch. Menurut OpenAI, Aardvark telah mengidentifikasi CVE “baru” dalam perangkat lunak sumber terbuka.
Terakhir, kelompok penasihat kolaboratif baru akan dibentuk dalam waktu dekat. Dijuluki Dewan Risiko Frontier (Frontier Danger Council), kelompok ini akan mencakup para praktisi dan mitra keamanan yang pada awalnya akan fokus pada implikasi keamanan siber AI serta praktik dan rekomendasi terkait, namun pada akhirnya dewan ini juga akan diperluas untuk mencakup kategori-kategori lain yang diuraikan dalam Kerangka Kesiapsiagaan OpenAI di masa depan.
Apa yang bisa kita harapkan dalam jangka panjang?
Kita harus memperlakukan AI dengan hati-hati, dan hal ini mencakup penerapan AI dan LLM tidak hanya dalam kehidupan pribadi kita, namun juga membatasi paparan risiko keamanan berbasis AI dalam bisnis. Misalnya, firma riset Gartner baru-baru ini memperingatkan organisasi untuk menghindari atau memblokir browser AI sepenuhnya karena masalah keamanan, termasuk serangan injeksi cepat dan paparan knowledge.
Kita perlu ingat bahwa AI adalah sebuah alat, meskipun merupakan alat yang baru dan menarik. Semua teknologi baru memiliki risiko — seperti yang diketahui oleh OpenAI, mengingat fokusnya pada tantangan keamanan siber yang terkait dengan chatbot AI paling populer di seluruh dunia — sehingga setiap aplikasinya harus diperlakukan dengan cara yang sama seperti solusi teknologi baru lainnya: dengan penilaian risikonya, serta potensi keuntungannya.










