Rentannya Teknologi Facial Recognition

Image credit: Freepix

Rentannya Teknologi Facial Recognition – Di tahun 2026, wajah kita telah menjadi kunci digital yang membuka hampir segalanya, memberi kemudahan juga kerusakan.

Mulai dari melewati gerbang keberangkatan di bandara internasional, melakukan verifikasi identitas saat membuka rekening bank secara online (eKYC), hingga sistem pengawasan massal oleh kepolisian di ruang publik.

Asumsi dasarnya sangat sederhana: wajah manusia adalah unik, sulit dipalsukan, dan mencocokkan wajah “langsung” dengan sumber data tepercaya adalah sinyal identitas yang mutlak.

Namun, penelitian terbaru dari Jake Moore, Penasihat Keamanan Siber Global di ESET, menghancurkan asumsi tersebut. Melalui serangkaian uji stres praktis yang akan dipresentasikan di konferensi RSAC 2026 di San Francisco.

Moore membuktikan bahwa teknologi yang kita anggap canggih ini ternyata sangat rapuh, mudah disalahgunakan, bahkan dikelabui hanya dengan perangkat keras konsumen yang tersedia bebas di pasar.

Berakhirnya Privasi di Ruang Publik

Moore memulai eksperimennya dengan menggunakan sepasang kacamata pintar (smart glasses) modifikasi yang dibeli secara bebas. Kacamata ini dilengkapi dengan kamera tersembunyi dan perangkat lunak pengenalan wajah yang terhubung ke database daring.

Saat berjalan di ruang publik, Moore mampu mengidentifikasi orang asing dalam hitungan detik. Hanya dengan sekali lirik, kacamata tersebut menangkap wajah target, membandingkannya dengan miliaran foto di sumber data publik (seperti media sosial dan situs profesional), dan mengembalikan nama serta profil lengkap mereka secara real-time.

Baca juga: Strategi Melawan Invasi Malware Android

Analisis Risiko

Meskipun teknologi ini tampak berguna bagi peserta konferensi yang pelupa, implikasi bagi keamanan individu sangatlah mengerikan.

Penjahat siber atau penguntit dapat menggunakan informasi ini untuk melakukan doxing, pencurian identitas, atau menyusun serangan spear-phishing yang sangat personal hanya dengan berpapasan di jalan.

Privasi di ruang publik, yang selama ini kita anggap sebagai lapisan pelindung anonimitas, secara teknis telah runtuh.

Menembus Perbankan dengan Wajah “Sintetis”

Uji coba kedua Moore jauh lebih mengkhawatirkan karena menyasar sektor finansial. Menggunakan gambar yang dihasilkan oleh Kecerdasan Buatan (Generative AI) dan perangkat lunak gratis, Moore menciptakan wajah fiktif yang tidak pernah ada di dunia nyata.

Wajah sintetis ini kemudian digunakan untuk mencoba membuka rekening bank asli melalui platform eKYC (Electronic Know Your Customer).

Hasilnya mengejutkan, sistem verifikasi wajah bank tersebut menerima wajah AI tersebut sebagai manusia sungguhan. Moore berhasil membuka rekening bank atas nama identitas yang sepenuhnya palsu.

Secara teknis, banyak sistem perbankan mengandalkan Liveness Detection (deteksi keaktifan) untuk memastikan bahwa pengguna adalah manusia asli, bukan sekadar foto atau video.

Namun, AI generatif saat ini mampu mensimulasikan gerakan mikro wajah, kedipan mata, dan tekstur kulit yang begitu sempurna sehingga algoritma keamanan gagal membedakannya.

Jika peretas dapat membuka rekening dengan wajah palsu, maka sistem keuangan global menghadapi risiko pencucian uang dan penipuan skala masif yang belum pernah terjadi sebelumnya.

Menghilang dari Radar Polisi dengan “Face Swap”

Dalam demonstrasi ketiga, Moore menargetkan sistem pengawasan keamanan tingkat tinggi di sebuah stasiun kereta api sibuk di London.

Ia memasukkan namanya sendiri ke dalam “daftar pengawasan” (watchlist) yang dimonitor oleh kamera pengenal wajah, sistem yang juga digunakan oleh kepolisian Inggris (Metropolitan Police).

Moore kemudian berjalan melewati area yang dipantau tersebut. Namun, ia menjalankan perangkat lunak face swap secara real-time di ponselnya yang terhubung ke kamera kecil, yang menimpa wajah aslinya dengan wajah aktor Tom Cruise pada feed video yang tertangkap.

Hasilnya? Sistem keamanan sama sekali tidak mengenalinya. Bagi algoritma dan petugas yang memantau layar CCTV, yang berjalan di stasiun tersebut adalah Tom Cruise, sementara Moore “menghilang” begitu saja dari sistem deteksi.

Dalam dunia akademik, ini dikenal sebagai Adversarial Attack. Penjahat tidak perlu melakukan operasi plastik untuk bersembunyi; mereka hanya perlu memanipulasi bagaimana data visual diterima oleh AI.

Studi dari University of Chicago mengenai alat bernama “Fawkes” juga menunjukkan bahwa sedikit manipulasi pada piksel foto (yang tidak terlihat oleh mata manusia) dapat membuat algoritma pengenalan wajah salah mengidentifikasi orang tersebut.

Baca juga: Adware & Spyware Kuasai Ekosistem Android

Mengapa Sistem Ini Begitu Rapuh?

Ada kesenjangan besar antara kepercayaan yang diberikan masyarakat kepada teknologi ini dengan ketahanan aslinya. Masalah utama terletak pada beberapa faktor teknis:

  • Ketergantungan pada Data 2D: Banyak sistem masih mengandalkan pencocokan pola dua dimensi. Meskipun ada teknologi 3D (seperti FaceID pada iPhone), implementasi massal di bandara dan CCTV sering kali lebih mengutamakan kecepatan daripada kedalaman akurasi.
  • Kecepatan Evolusi AI Generatif: Kemampuan AI untuk menciptakan Deepfake berkembang jauh lebih cepat daripada kemampuan algoritma deteksi untuk mengenalinya.
  • Ketiadaan Pengujian Adversarial: Vendor sering kali menguji sistem mereka dalam kondisi laboratorium yang ideal, bukan dalam skenario serangan aktif di mana peretas mencoba membingungkan model AI.

Implikasi Hukum dan Etika di Tahun 2026

Eksperimen Moore menjadi pengingat keras bagi regulator. Di Uni Eropa, AI Act telah mulai mengklasifikasikan pengenalan wajah sebagai teknologi “risiko tinggi”. Namun, regulasi saja tidak cukup jika infrastruktur teknisnya sendiri masih memiliki celah yang menganga.

Organisasi harus menyadari bahwa verifikasi identitas yang hanya bergantung pada kecocokan wajah membawa risiko lebih besar daripada yang disadari.

Wajah bukanlah kata sandi yang rahasia; wajah Anda ada di mana-mana di media sosial, di kamera jalanan, dan di database publik. Sekali wajah Anda berhasil “diretas” atau dipalsukan, Anda tidak bisa menggantinya seperti Anda mengganti kata sandi email.

Menuju Autentikasi Multimodal

Kesimpulan dari riset Moore di RSAC 2026 ini sangat jelas: Jangan pernah mengandalkan wajah sebagai satu-satunya faktor keamanan. Untuk organisasi dan pengembang sistem, Moore menyarankan:

  1. Pengujian Kondisi Adversarial: Sistem harus diuji secara rutin oleh tim peretas etis (Red Teaming) menggunakan taktik deepfake terbaru.
  2. Autentikasi Multimodal: Keamanan finansial dan akses sensitif harus menggabungkan pengenalan wajah dengan faktor lain, seperti analisis perilaku (behavioral biometrics), kunci keamanan fisik, atau verifikasi dokumen tambahan yang lebih dinamis.
  3. Transparansi Publik: Masyarakat harus diberi tahu mengenai keterbatasan teknologi ini, sehingga mereka tidak memiliki rasa aman palsu.

Teknologi pengenalan wajah adalah alat yang luar biasa untuk kenyamanan, tetapi dalam hal keamanan tingkat tinggi, ia tetaplah sebuah sistem yang rapuh. Di tangan yang salah, wajah Anda bukan lagi identitas Anda, melainkan senjata bagi para penipu digital.

 

 

Baca artikel lainnya: 

 

 

Sumber berita:

 

Prosperita IT News