Image credit: Freepix
Agentic AI Ancaman Otonom Baru – Kemunculan alat Agentic AI telah menggemparkan dunia teknologi dalam beberapa bulan terakhir.
Alat ini didasarkan pada Large Language Model (LLM) canggih yang dijanjikan mampu berpikir, membuat rencana, dan menyelesaikan tugas secara mandiri (autonomously) pada tingkat profesional, dengan sedikit interaksi manusia.
Meskipun potensi efisiensinya luar biasa, kemampuan otonom inilah yang membuat Agentic AI rentan terhadap risiko yang jauh lebih buruk.
Dibandingkan chatbot LLM tradisional, terutama dalam hal kebocoran data dan kompromi terhadap keamanan organisasi.
Potensi Risiko yang Berlipat Ganda
Peneliti keamanan siber menjelaskan bahwa risiko pada Agentic AI meningkat drastis karena kemampuannya yang lebih canggih. Tidak seperti chatbot sederhana, Agentic AI dapat:
- Membuat Rencana: Mampu menyusun langkah-langkah kompleks untuk mencapai suatu tujuan.
- Mengakses Alat Eksternal: Dapat menggunakan alat atau tool yang tidak dapat diakses oleh LLM biasa, seperti API (Antarmuka Pemrograman Aplikasi), basis data, atau bahkan terminal (command line).
- Menciptakan Tujuan: Mampu menetapkan sub-tujuan untuk menyelesaikan tugas utama.
Gabungan kemampuan ini meningkatkan potensi kerentanan. Jika Agentic AI disusupi, ia tidak hanya membocorkan data, tetapi juga dapat bertindak secara mandiri untuk menyerang jaringan dan sistem lain.
|
Baca juga: Taktik Canggih Malware VShell |
Vektor Serangan Utama pada Agentic AI
Berikut adalah mengenai berbagai jenis serangan yang mengancam Agentic AI, yang juga diulas dalam daftar ancaman Agentic AI OWASP:
- Manipulasi Tujuan Agen (Agent Goal Manipulation): Penyerang dapat menggunakan prompt berbahaya untuk membajak tujuan awal agen dan memaksanya bertindak melawan fungsi yang seharusnya.
- Serangan Waktu (Time-Based Attacks): Memanfaatkan jeda atau urutan waktu dalam eksekusi agen.
- Kompromi Jaringan: Mengubah cara agen berinteraksi satu sama lain untuk mengkompromikan seluruh jaringan.
- Kebocoran Data dan Peningkatan Hak Akses (Privilege Escalation): Agen dapat dimanipulasi untuk mengakses data sensitif yang seharusnya tidak ia miliki, dan bahkan meningkatkan hak aksesnya di dalam sistem.
- Penciptaan Vektor Serangan Baru: Pada tingkat ekstrem, AI agen dapat disalahgunakan untuk membuat kode berbahaya secara otomatis, termasuk peluang untuk eksekusi kode jarak jauh (Remote Code Execution – RCE).
Kerentanan Agent VS Code dan GitHub Copilot
Salah satu contoh nyata yang dibagikan adalah kerentanan CVE-2025-53773 pada Agent VS Code dan GitHub Copilot.
Kerentanan ini memungkinkan agen dimanipulasi untuk membuat file tanpa otorisasi pengguna, dan pada akhirnya dapat mengkompromikan seluruh mesin pengembang.
Peneliti menemukan bahwa penyerang dapat menyuntikkan prompt berbahaya, misalnya melalui halaman web atau issue GitHub yang dilihat agen untuk melakukan dua langkah:
- Mengaktifkan “YOLO mode” (Auto-Approve): Garis perintah tunggal dapat membuat agen secara otomatis menyetujui penggunaan semua alat.
- Menjalankan Perintah Terminal: Setelah hak akses disetujui, prompt sekunder digunakan untuk menjalankan perintah terminal apa pun, seperti menjalankan aplikasi kalkulator atau bahkan perintah yang lebih merusak.
Ini adalah contoh klasik dari Manipulasi Tujuan Agen, di mana niat baik agen dibelokkan untuk melayani tujuan jahat penyerang.
|
Baca juga: Warlock Fokus Incar Server Sharepoint |
Strategi Pertahanan Melawan Ancaman Agentic AI
Karena LLM dan AI agen semakin berintegrasi ke dalam operasi perusahaan, model tanggung jawab bersama antara vendor (yang sering menjanjikan berlebihan) dan pelanggan (yang terburu-buru mengimplementasikan) menjadi semakin rumit.
Untuk melindungi diri dari ancaman Agentic AI, organisasi perlu menerapkan langkah-langkah keamanan berlapis:
1. Prinsip Least Privilege (Hak Akses Paling Rendah)
Salah satu pertahanan terbaik adalah memastikan model AI tidak memiliki akses data lebih dari yang dibutuhkan untuk menjalankan fungsinya. Data sensitif tidak boleh terekspos ke pengguna eksternal.
2. Membangun Pembatas Keamanan (Guardrails) yang Kuat
Operator manusia harus menetapkan batasan yang ketat, termasuk:
- Penyaringan Berbasis Kata Kunci: Menggunakan penyaringan berbasis kata kunci pada tingkat input (masukan) dan output (keluaran). Ini memastikan prompt bermasalah dari pengguna diblokir, dan juga memblokir respons AI yang mungkin menghasilkan konten berbahaya.
3. Whitelisting Alat Eksternal
Khusus untuk Agentic AI yang dapat mengakses alat eksternal (API), organisasi harus menggunakan Daftar Putih (Whitelisting) untuk alat mana saja yang boleh diakses model.
Peneliti menekankan, jika saya memiliki lima set API dengan proses yang terdefinisi dengan baik, hanya lima set API inilah yang harus dimasukkan dalam daftar putih. Jika tidak, model dapat menjadi nakal (go rogue) dan memanggil API apa pun yang dapat diakses.
Dengan menerapkan kontrol akses yang ketat dan batasan fungsional yang jelas, organisasi dapat memanfaatkan kekuatan otomatisasi Agentic AI sambil meminimalkan risiko keamanan dan potensi kebocoran data yang dapat terjadi secara otonom.
Baca artikel lainnya:
- Spearphishing Spesifik dan Berbahaya
- Apakah Belanja di Etsy Aman?
- Ransomware yang Menyamar sebagai ChatGPT
- 10 Kesalahpahaman Teratas tentang Cyberbullying
- Mengatasi FOMO pada Anak di Era Digital
- ClickJacking Kerentanan Baru pada Manajer Kata Sandi
- Jerat Penipuan Finansial Deepfake
- Trojan GodRAT Khusus Targetkan Lembaga Keuangan
- Perilaku Kamera Yang Berada di Bawah Pengaruh Peretas
- Kode Sumber Trojan Perbankan ERMAC V3.0 Bocor ke Publik
Sumber berita:
