Risiko di Balik Akses AI Ilegal

Image credit: Magnific

Risiko di Balik Akses AI Ilegal – Google baru saja mengungkapkan temuan yang menandai babak baru dalam sejarah keamanan siber, identifikasi eksploitasi zero-day pertama di dunia yang diyakini dikembangkan menggunakan bantuan sistem kecerdasan buatan (AI).

Temuan ini mengonfirmasi kekhawatiran para ahli selama ini bahwa teknologi AI telah dipersenjatai oleh aktor ancaman untuk penemuan kerentanan dan pembuatan kode serangan secara otomatis di lapangan.

Aktivitas ini dilaporkan sebagai hasil kolaborasi kelompok penjahat siber yang merencanakan apa yang digambarkan sebagai “operasi eksploitasi kerentanan massal.”

Ancaman ini bukan lagi sekadar prediksi masa depan, melainkan realitas yang terjadi di tahun 2026, di mana kecepatan penemuan dan serangan siber meningkat drastis berkat otomatisasi cerdas.

Jejak Digital AI dalam Kode Serangan

Analisis terhadap kampanye ini mengidentifikasi kerentanan zero-day yang diimplementasikan dalam skrip Python.

Skrip tersebut memungkinkan penyerang untuk mem-bypass autentikasi dua faktor (2FA) pada alat administrasi sistem berbasis web sumber terbuka yang populer.

Meskipun nama alat tersebut tidak diungkapkan untuk alasan keamanan, pengembang terkait telah bekerja sama dengan Google untuk merilis perbaikan secara proaktif.

Para peneliti memiliki keyakinan tinggi bahwa model AI digunakan untuk memfasilitasi penemuan celah ini. Skrip Python yang ditemukan menunjukkan ciri khas kode yang dihasilkan oleh Large Language Model (LLM), seperti:

  • Docstrings edukatif yang berlebihan: Skrip berisi penjelasan mendalam yang tidak biasa ditemukan pada kode buatan manusia untuk tujuan serangan.
  • Halusinasi Skor CVSS: Terdapat pencantuman skor tingkat bahaya (CVSS) yang tidak akurat atau berhalusinasi, sebuah karakteristik umum dari model AI saat mencoba memprediksi data teknis.
  • Format “Buku Teks” yang Bersih: Penggunaan struktur Pythonic yang sangat rapi, termasuk menu bantuan mendetail dan penggunaan kelas warna ANSI yang terstruktur, yang sangat identik dengan data pelatihan LLM.

Celah 2FA ini muncul dari kesalahan logika semantik tingkat tinggi yang berasal dari asumsi kepercayaan berkode keras (hard-coded trust).

Menariknya, jenis kesalahan logika seperti inilah yang sangat mahir dideteksi oleh model AI dibandingkan dengan pemindai kerentanan tradisional.

Baca juga: Keamanan Siber Bukan Sekadar Biaya

Malware Android yang Berpikir Sendiri

Selain eksploitasi zero-day, teknologi AI juga digunakan untuk menciptakan malware polimorfik dan otonom.

Salah satu contoh paling berbahaya adalah PromptSpy, malware Android yang menyalahgunakan API AI untuk menganalisis layar korban secara real-time.

PromptSpy memiliki kemampuan yang sangat mengkhawatirkan:

  • Navigasi UI Otonom: Malware dapat menavigasi antarmuka pengguna Android, memantau aktivitas, dan menafsirkan tindakan pengguna untuk menentukan langkah serangan selanjutnya menggunakan modul agen otonom.
  • Replay Autentikasi Biometrik: Ia dapat menangkap data biometrik korban untuk memutar ulang gerakan autentikasi, seperti pola atau PIN layar kunci, guna mendapatkan kembali akses jika perangkat terkunci.
  • Perlindungan Anti-Uninstal: Malware ini dilengkapi modul “AppProtectionDetector” yang mengidentifikasi koordinat tombol “Hapus Instalan” di layar, lalu menempatkan hamparan (overlay) transparan di atasnya sehingga tombol tersebut tidak merespons sentuhan korban.

Infrastruktur PromptSpy dirancang dengan ketahanan operasional tinggi. Kunci API dan server relai dapat diperbarui secara dinamis melalui saluran perintah dan kontrol (C2), memungkinkan penyerang tetap bertahan meskipun sebagian infrastruktur mereka telah diblokir.

Penyalahgunaan AI oleh Aktor Negara

Laporan ini juga merinci bagaimana berbagai kelompok ancaman tingkat negara (APT) mulai mengadopsi AI dalam operasi mereka:

  • UNC2814 (Afiliasi Tiongkok): Menggunakan teknik jailbreaking berbasis persona untuk memaksa AI bertindak sebagai ahli keamanan jaringan guna meneliti kerentanan pada perangkat embedded seperti firmware TP-Link.
  • APT45 / Andariel (Korea Utara): Mengirimkan ribuan perintah berulang untuk menganalisis berbagai daftar CVE dan memvalidasi kode bukti konsep (Proof-of-Concept) secara rekursif.
  • APT27 (Tiongkok): Memanfaatkan AI untuk mempercepat pengembangan aplikasi manajemen armada guna mengelola jaringan kotak relai operasional (ORB).
  • Kelompok Rusia: Mengirimkan malware berkemampuan AI bernama CANFAIL dan LONGSTREAM yang menggunakan kode tipuan hasil buatan AI untuk menyembunyikan fungsi jahat mereka.

Para penyerang juga bereksperimen dengan memberikan “pelajaran tambahan” kepada AI menggunakan dataset dari platform pengungkapan kerentanan lama seperti WooYun.

Dengan memberikan data ribuan kasus kerentanan nyata, mereka melatih AI untuk berpikir seperti peretas profesional dan menemukan celah logika yang mungkin dilewatkan oleh model standar.

Baca juga: Penipuan PayPal Terkini

Pasar Gelap API dan Risiko Keamanan

Tren lain yang mengkhawatirkan di tahun 2026 adalah munculnya pasar gelap platform relai API. Layananini memungkinkan pengembang atau penyerang di wilayah yang dibatasi (seperti Tiongkok daratan) untuk mengakses model AI canggih melalui server proksi.

Namun, penggunaan “Shadow API” ini membawa risiko keamanan tersendiri. Penelitian dari peneliti di pusat keamanan informasi Jerman menemukan bahwa:

Akurasi Menurun Drastis: Akurasi model pada tolak ukur medis turun dari 83,82% menjadi hanya 37% saat menggunakan API bayangan, yang mengindikasikan adanya substitusi model oleh penyedia layanan nakal.

Pencurian Data Massal: Server proksi ini dapat menangkap setiap perintah (prompt) dan respons yang lewat, memberikan operator akses ilegal ke tambang emas data yang dapat digunakan untuk serangan lanjutan atau melatih model mereka sendiri.

Langkah Pengamanan dan Mitigasi

Menghadapi percepatan serangan berbasis AI, strategi pertahanan konvensional tidak lagi memadai. Berikut adalah langkah-langkah mitigasi yang direkomendasikan untuk organisasi dan individu:

  1. Organisasi harus mengadopsi solusi keamanan yang juga menggunakan AI untuk mendeteksi pola serangan otomatis. Perlawanan terhadap AI hanya bisa dilakukan secara efektif dengan AI yang lebih kuat.
  2. Karena AI sangat ahli dalam menemukan celah logika semantik, proses tinjauan kode (code review) harus lebih fokus pada asumsi-asumsi kepercayaan di dalam aplikasi, bukan hanya sekadar mencari kesalahan sintaksis.
  3. Pastikan semua library dan model AI pihak ketiga yang digunakan berasal dari sumber yang tervalidasi. Serangan terhadap sistem AI internal dapat memberikan peretas kemampuan untuk melakukan pengintaian massal dari dalam jaringan.
  4. Di platform Android, hindari memberikan izin aksesibilitas atau hamparan layar kepada aplikasi yang tidak dikenal, karena ini adalah pintu masuk utama bagi malware seperti PromptSpy.
  5. Mengingat AI kini mampu mem-bypass 2FA tradisional, penggunaan kunci keamanan fisik (FIDO2) atau passkeys menjadi sangat krusial.
  6. Solusi keamanan dari ESET dapat membantu mendeteksi perilaku anomali dari skrip otomatis dan malware polimorfik. ESET memiliki teknologi pemindaian memori tingkat lanjut yang mampu mengenali aktivitas malware otonom sebelum mereka sempat mengeksekusi instruksi dari AI.

Realitas Baru Pertahanan Siber

Kita tidak lagi menuju ke arah garis waktu yang terkompresi; kita sudah berada di dalamnya. AI telah menjadi pengganda kekuatan bagi aktor ancaman, mengurangi upaya yang diperlukan untuk mengidentifikasi, memvalidasi, dan mempersenjatai kelemahan sistem.

Bagi para pembela keamanan siber, tidak ada kata menyerah atau memilih untuk tidak ikut serta. Tantangan di tahun 2026 adalah memastikan bahwa pertahanan kita berevolusi lebih cepat daripada kemampuan serangan AI.

Dengan memahami metode yang digunakan oleh penyerang, mulai dari penggunaan AI untuk membuat kode hingga penyalahgunaan infrastruktur API, kita dapat membangun lapisan perlindungan yang lebih tangguh dan adaptif menghadapi ancaman masa depan.

 

 

Baca juga: 

 

 

 

Sumber berita:

 

Prosperita IT News