Pasar AI perusahaan saat ini sedang mengalami mabuk berat. Selama dua tahun terakhir, para pengambil keputusan dibanjiri dengan demo agen otonom yang memesan penerbangan, menulis kode, dan menganalisis data. Namun kenyataan di lapangan jauh berbeda. Meskipun eksperimen berada pada titik tertinggi sepanjang masa, penerapan agen otonom dan andal dalam produksi masih merupakan tantangan.
Sebuah studi baru-baru ini yang dilakukan oleh Project NANDA dari MIT menyoroti statistik yang menyedihkan: Sekitar 95% proyek AI gagal memberikan nilai keuntungan. Mereka menabrak tembok ketika dipindahkan dari kotak pasir ke dunia nyata, sering kali pecah karena beban kasus yang berat, halusinasi, atau kegagalan integrasi.
Menurut Antonio Gulli, insinyur senior di Google dan Direktur Kantor Teknik CTO, industri ini mengalami kesalahpahaman mendasar tentang apa sebenarnya agen itu. Kami memperlakukannya sebagai kotak ajaib dan bukan sistem perangkat lunak yang rumit. “Rekayasa AI, terutama dengan model dan agen besar, sebenarnya tidak ada bedanya dengan segala bentuk rekayasa, seperti perangkat lunak atau teknik sipil,” kata Gulli dalam wawancara eksklusif dengan VentureBeat. “Untuk membangun sesuatu yang tahan lama, Anda tidak bisa hanya mengejar model atau kerangka kerja terbaru.”
Gulli berpendapat bahwa solusi terhadap “palung kekecewaan” bukanlah model yang lebih cerdas, namun arsitektur yang lebih baik. Buku terbarunya, “Pola Desain Agenik” memberikan standar arsitektur yang ketat dan berulang yang mengubah agen “mainan” menjadi alat perusahaan yang andal. Buku ini memberi penghormatan kepada yang asli “Pola Desain” (salah satu buku favorit saya tentang rekayasa perangkat lunak), yang menertibkan pemrograman berorientasi objek pada tahun 1990an.
Gulli memperkenalkan 21 pola dasar yang berfungsi sebagai landasan bagi sistem agen yang andal. Ini adalah struktur rekayasa praktis yang menentukan cara agen berpikir, mengingat, dan bertindak. “Tentu saja, penting untuk memiliki teknologi canggih, namun Anda perlu mengambil langkah mundur dan merenungkan prinsip-prinsip dasar yang mendorong sistem AI,” kata Gulli. “Pola-pola ini adalah landasan teknik yang meningkatkan kualitas solusi.”
Perlengkapan kelangsungan hidup perusahaan
Bagi para pemimpin perusahaan yang ingin menstabilkan tumpukan AI mereka, Gulli mengidentifikasi lima pola “hasil yang diharapkan” yang menawarkan dampak langsung tertinggi: Refleksi, Perutean, Komunikasi, Pagar Pembatas, dan Memori. Pergeseran paling penting dalam desain agen adalah perpindahan dari bot “respon-stimulus” yang sederhana ke sistem yang mampu melakukannya Cerminan. LLM standar mencoba menjawab pertanyaan dengan segera, yang sering kali menyebabkan halusinasi. Agen reflektif, bagaimanapun, meniru pemikiran manusia dengan membuat rencana, melaksanakannya, dan kemudian mengkritisi keluarannya sendiri sebelum menyajikannya kepada pengguna. Putaran umpan balik internal ini sering kali menjadi pembeda antara jawaban yang salah dan jawaban yang benar.
Ketika seorang agen dapat berpikir, ia harus efisien. Di sinilah Rute menjadi penting untuk pengendalian biaya. Daripada mengirimkan setiap kueri ke “model Tuhan” yang besar dan mahal, lapisan perutean menganalisis kompleksitas permintaan. Tugas-tugas sederhana diarahkan pada model-model yang lebih cepat dan lebih murah, sementara penalaran yang rumit dikhususkan untuk model-model berat. Arsitektur ini memungkinkan perusahaan untuk meningkatkan skala tanpa menghabiskan anggaran inferensi mereka. “Suatu model dapat bertindak sebagai router bagi model lain, atau bahkan model yang sama dengan perintah dan fungsi sistem yang berbeda,” kata Gulli.

Menghubungkan agen-agen ini ke dunia luar memerlukan standarisasi Komunikasi dengan memberikan model akses ke alat seperti penelusuran, kueri, dan eksekusi kode. Di masa lalu, menghubungkan LLM ke database berarti menulis kode khusus dan rapuh. Gulli menunjuk pada kebangkitan Protokol Konteks Model (MCP) sebagai momen penting. MCP bertindak seperti port USB untuk AI, menyediakan cara standar bagi agen untuk menyambungkan ke sumber data dan alat. Standardisasi ini meluas ke komunikasi “Agen-ke-Agen” (A2A), yang memungkinkan agen khusus berkolaborasi dalam tugas kompleks tanpa overhead integrasi khusus.
Namun, bahkan agen yang cerdas dan efisien pun tidak ada gunanya jika tidak dapat menyimpan informasi. Ingatan pola memecahkan masalah “ikan mas”, di mana agen melupakan instruksi dalam percakapan yang panjang. Dengan menyusun cara agen menyimpan dan mengambil interaksi dan pengalaman masa lalu, pengembang dapat menciptakan asisten yang gigih dan sadar konteks. “Cara Anda menciptakan memori sangat penting bagi kualitas agen,” kata Gulli.

Pada akhirnya, semua ini tidak menjadi masalah jika agen merupakan suatu tanggung jawab. Pagar pembatas memberikan batasan yang diperlukan untuk memastikan agen beroperasi dalam batas-batas keselamatan dan kepatuhan. Ini lebih dari sekedar perintah sistem sederhana yang meminta model untuk “bersikap baik”; ini melibatkan pemeriksaan arsitektur dan kebijakan eskalasi yang mencegah kebocoran data atau tindakan tidak sah. Gulli menekankan bahwa mendefinisikan batasan “keras” ini “sangat penting” untuk keamanan, memastikan bahwa agen yang mencoba membantu tidak secara tidak sengaja mengekspos data pribadi atau menjalankan perintah yang tidak dapat diubah di luar cakupan resminya.
Memperbaiki keandalan dengan keamanan transaksional
Bagi banyak CIO, keragu-raguan untuk mengerahkan agen berasal dari rasa takut. Agen otonom yang dapat membaca email atau memodifikasi file menimbulkan risiko yang signifikan jika terjadi hal yang tidak diinginkan. Gulli mengatasi hal ini dengan meminjam konsep dari manajemen basis data: keamanan transaksional. “Jika agen mengambil tindakan, kita harus menerapkan pos pemeriksaan dan rollback, seperti yang kita lakukan untuk keamanan transaksional dalam database,” kata Gulli.
Dalam model ini, tindakan agen bersifat tentatif hingga divalidasi. Jika sistem mendeteksi anomali atau kesalahan, sistem dapat “memutar kembali” ke kondisi aman sebelumnya, membatalkan tindakan agen. Jaring pengaman ini memungkinkan perusahaan untuk memercayai agen yang memiliki akses tulis ke sistem, karena mengetahui adanya tombol undo. Menguji sistem ini memerlukan pendekatan baru juga. Pengujian unit tradisional memeriksa apakah suatu fungsi mengembalikan nilai yang benar, namun agen mungkin sampai pada jawaban yang benar melalui proses yang cacat dan berbahaya. Gulli menganjurkan untuk mengevaluasi Lintasan Agenmetrik yang mengevaluasi perilaku agen dari waktu ke waktu.

“[Agent Trajectories] melibatkan analisis seluruh rangkaian keputusan dan alat yang digunakan untuk mencapai suatu kesimpulan, memastikan keseluruhan prosesnya masuk akal, bukan hanya jawaban akhir,” katanya.
Hal ini sering kali ditambah dengan Kritik pola, di mana agen khusus yang terpisah ditugaskan untuk menilai kinerja agen utama. Saling memeriksa ini sangat penting untuk mencegah penyebaran kesalahan, yang pada dasarnya menciptakan sistem tinjauan sejawat otomatis untuk keputusan AI.
Pembuktian masa depan: Dari rekayasa cepat hingga rekayasa konteks
Menjelang tahun 2026, era model tunggal yang bertujuan umum kemungkinan besar akan berakhir. Gulli memperkirakan adanya pergeseran ke arah lanskap yang didominasi oleh armada agen khusus. “Saya sangat yakin kita akan melihat spesialisasi agen,” katanya. “Modelnya akan tetap menjadi otak… tetapi agen akan menjadi sistem multi-agen dengan tugas khusus—agen yang berfokus pada pengambilan, pembuatan gambar, pembuatan video — berkomunikasi satu sama lain.”
Di masa depan, keterampilan utama pengembang bukanlah membujuk model agar bekerja dengan ungkapan yang cerdas dan rekayasa yang cepat. Sebaliknya, mereka perlu fokus pada rekayasa konteks, disiplin yang berfokus pada perancangan arus informasi, pengelolaan negara, dan kurasi konteks yang “dilihat” oleh model.
Ini adalah peralihan dari tipu daya linguistik ke rekayasa sistem. Dengan mengadopsi pola-pola ini dan berfokus pada “saluran air” AI, bukan hanya pada modelnya, perusahaan pada akhirnya dapat menjembatani kesenjangan antara hype dan keuntungan. “Kita tidak boleh menggunakan AI hanya demi AI,” Gulli memperingatkan. “Kita harus memulai dengan definisi yang jelas mengenai masalah bisnis dan cara terbaik memanfaatkan teknologi untuk menyelesaikannya.”












