Cybercrime AI di Asia: Ancaman yang Semakin Menakutkan



Cybercrime AI di Asia: Ancaman yang Semakin Menakutkan - picture from: darkreading - pibitek.biz - Palsu

picture from: darkreading


336-280
TL;DR
  • Ancaman kejahatan siber yang menggunakan AI di Asia-Pasifik meningkat secara eksponensial, terutama dalam bentuk deepfake yang dapat digunakan untuk menipu korban dan merusak reputasi seseorang.
  • Para penjahat siber memanfaatkan AI Generatif untuk menciptakan berbagai macam ancaman, seperti pesan phishing, chatbot, disinformasi di media sosial, dan dokumen palsu untuk memalsukan identitas.
  • Pemerintah, industri, dan individu harus bekerja sama untuk mengatasi ancaman AI dalam kejahatan siber, dengan meningkatkan kesadaran, mengembangkan strategi keamanan yang kuat, dan berinvestasi dalam penelitian dan pengembangan teknologi AI yang dapat digunakan untuk melawan kejahatan siber.

pibitek.biz -Di tengah perkembangan teknologi yang pesat, dunia maya menjadi medan pertempuran baru bagi para pelaku kejahatan. Asia, sebagai wilayah yang dipenuhi dengan populasi besar dan pertumbuhan ekonomi yang cepat, menjadi sasaran utama bagi para penjahat siber yang menggunakan AI untuk melancarkan serangannya. Ancaman AI dalam kejahatan siber di Asia-Pasifik, khususnya dalam bentuk deepfake, meningkat secara eksponensial. Para penjahat siber memanfaatkan kecanggihan AI untuk menciptakan deepfake yang semakin realistis, sehingga sulit dibedakan dari aslinya.

Deepfake dapat digunakan untuk menipu korban dalam skema penipuan, merusak reputasi seseorang, atau menyebarkan informasi palsu yang berpotensi memicu konflik. Organisasi Perserikatan Bangsa-Bangsa untuk Narkoba dan Kejahatan (UNODC) dalam laporannya mengenai kejahatan siber di Asia Tenggara mengumumkan bahwa para penjahat siber memanfaatkan AI Generatif (AI Generatif) untuk menciptakan berbagai macam ancaman. AI Generatif dapat menghasilkan teks, gambar, audio, dan video yang menyerupai karya manusia.

Dengan memanfaatkan AI Generatif, para penjahat siber dapat membuat pesan phishing dalam berbagai bahasa, chatbot yang dapat memanipulasi korban, disinformasi di media sosial secara massal, dan dokumen palsu untuk memalsukan identitas. AI Generatif juga dapat digunakan untuk membuat malware polimorfik, yaitu jenis malware yang dapat mengubah bentuknya secara berkala agar sulit dideteksi oleh software keamanan. Penjahat siber juga dapat menggunakan AI Generatif untuk menemukan target ideal untuk serangan mereka, dengan menganalisis data dari berbagai sumber, termasuk media sosial, situs web, dan catatan transaksi.

Deepfake menjadi ancaman yang paling menonjol dalam kejahatan siber yang memanfaatkan AI. Data dari UNODC menunjukkan peningkatan yang signifikan dalam penggunaan deepfake di saluran Telegram dan forum bawah tanah yang terkait dengan kejahatan siber. Selama periode Februari hingga Juni 2024, terjadi peningkatan sebesar 600% dalam penyebutan deepfake di platform-platform tersebut. Kenaikan ini terjadi di atas aktivitas yang telah tinggi pada tahun 2023, di mana kejahatan deepfake meningkat lebih dari 1.500% dibandingkan tahun sebelumnya.

Pada paruh kedua tahun 2023, penyalinan wajah (face swap injections) meningkat sebesar 704% dibandingkan dengan paruh pertama tahun tersebut. Para pemimpin keamanan siber di Asia-Pasifik, seperti di seluruh dunia, mengantisipasi gelombang masalah siber yang didorong oleh AI. Sebuah survei Cloudflare yang berfokus pada Asia, yang diterbitkan pada 9 Oktober 2024, menunjukkan bahwa 50% responden memperkirakan AI akan digunakan untuk memecahkan kata sandi dan enkripsi. Sebanyak 47% responden memperkirakan AI akan meningkatkan serangan phishing dan rekayasa sosial, 44% responden memperkirakan AI akan meningkatkan serangan denial-of-service terdistribusi (DDoS), dan 40% responden memperkirakan AI akan digunakan untuk membuat deepfake dan mendukung pelanggaran privasi.

Banyak dari kekhawatiran tersebut tidak lagi bersifat teoritis, sebagaimana dibuktikan oleh beberapa organisasi. Pada bulan Januari 2024, seorang karyawan di kantor Arup di Hong Kong, sebuah perusahaan teknik Inggris, menerima email yang mengklaim berasal dari kepala keuangan (CFO) perusahaan di London. CFO tersebut menginstruksikan karyawan tersebut untuk melakukan transaksi keuangan rahasia. Karyawan tersebut kemudian bergabung dalam konferensi video dengan CFO dan peserta lain yang mengklaim sebagai manajemen senior, yang semuanya ternyata adalah deepfake.

Hasilnya, pada bulan Mei 2024, Arup melaporkan kehilangan 200 juta dolar Hong Kong (setara dengan $25,6 juta). Deepfake tokoh-tokoh politik terkemuka telah menyebar luas, seperti video dan rekaman audio palsu Perdana Menteri dan Wakil Perdana Menteri Singapura pada bulan Desember 2023, dan video palsu pada bulan Juli 2024 yang menunjukkan kepala negara Asia Tenggara dengan narkoba. Di Thailand, seorang polisi wanita menjadi korban deepfake dalam kampanye yang menipu korban dengan mengira mereka berbicara dengan petugas penegak hukum yang sebenarnya.

Menurut UNODC, setengah dari semua kejahatan deepfake yang dilaporkan di Asia pada tahun 2023 berasal dari Vietnam (25,3%) dan Jepang (23,4%), tetapi peningkatan paling cepat dalam kasus terjadi di Filipina, yang mengalami peningkatan 4.500% pada tahun 2023 dibandingkan dengan tahun 2022. Semua ini didukung oleh ekosistem besar pengembang dan pembeli yang jahat, di Telegram dan di sudut-sudut Deep Web yang lebih gelap. UNODC telah mengidentifikasi lebih dari 10 vendor software deepfake yang melayani kelompok penjahat siber di Asia Tenggara secara khusus.

Penawaran mereka dilengkapi dengan teknologi deepfake terbaru dan terbaik, seperti Google's MediaPipe Face Landmarker (yang menangkap ekspresi wajah secara detail secara real-time), model deteksi objek You Only Look Once v5 (YOLOv5), dan banyak lagi. Meskipun kejahatan siber yang didorong oleh AI mengancam organisasi di setiap bagian dunia, kejahatan ini memiliki beberapa keuntungan khusus di Asia. "Asia Tenggara sangat padat penduduk, dan sebagian besar penduduk tidak mengerti bahasa Inggris, atau bahasa Inggris bukan bahasa pertama mereka", kata Shashank Shekhar, managing editor di CloudSEK yang berbasis di India.

Tanda-tanda khas yang mungkin menunjukkan penipuan kepada penutur bahasa Inggris asli mungkin tidak dapat dipahami oleh penutur bahasa yang berbeda. Selain itu, ia mencatat, "Banyak orang menganggur, mencari pekerjaan, mencari peluang". Keputusasaan membuat pertahanan korban menjadi lebih lemah. "Ada beberapa jenis penipuan yang hanya berfungsi dengan baik di bagian dunia ini", kata Anirudh Batra, peneliti ancaman CloudSEK. "Penipuan yang lebih sederhana sangat umum karena kemiskinan yang telah dialami wilayah dunia ini". "Mungkin dengan berkolaborasi: berbagai negara bersatu, berbagi intelijen", kata Batra. Meskipun ia memperingatkan, "Kecuali orang-orang ini tertangkap, forum lain akan muncul besok. Menjadi sangat sulit untuk menghentikan mereka, karena para pelaku ancaman tahu bahwa semua badan intelijen tiga huruf mengawasi forum – semua orang merayap di mana-mana. Jadi mereka menyimpan banyak cadangan. Pada titik mana pun, jika [aset mereka] disita, mereka akan memulai lagi dengan cermin". "AI Generatif" adalah istilah untuk AI yang dapat membuat konten baru seperti teks, gambar, audio, dan video.

AI Generatif dapat dilatih pada kumpulan data besar untuk mempelajari pola dan tren dalam konten yang ada, dan kemudian menggunakan pengetahuan ini untuk menghasilkan konten yang mirip tetapi baru. Misalnya, AI Generatif dapat digunakan untuk membuat teks yang menyerupai gaya penulis tertentu, membuat gambar realistis dari teks deskriptif, atau menghasilkan musik baru yang mirip dengan gaya artis tertentu. "Malware polimorfik" adalah jenis software jahat yang dapat mengubah bentuknya secara berkala, sehingga sulit dideteksi oleh software keamanan.

Malware polimorfik menggunakan algoritma yang membuat perubahan pada kode programnya setiap kali dijalankan, sehingga setiap salinan malware memiliki tanda tangan digital yang unik. Ini membuat sulit bagi software antivirus untuk mengenali malware tersebut, karena database tanda tangan malware mereka mungkin tidak berisi informasi tentang variasi terbaru. "Face swap injection" adalah teknik yang digunakan untuk mengganti wajah seseorang dalam video atau gambar dengan wajah orang lain. Teknik ini memanfaatkan algoritma AI untuk mendeteksi fitur wajah dan menggabungkannya dengan wajah target.

Hasilnya adalah video atau gambar di mana orang yang ditukar wajahnya tampak seolah-olah mereka adalah orang yang berbeda. "Distributed Denial-of-Service (DDoS)" adalah serangan siber yang bertujuan untuk membuat server atau layanan jaringan tidak dapat diakses oleh pengguna yang sah. Serangan DDoS dilakukan dengan membanjiri target dengan permintaan lalu lintas dari berbagai sumber, sehingga server tidak dapat memproses permintaan sah yang masuk. "MediaPipe Face Landmarker" adalah alat yang dikembangkan oleh Google yang dapat mendeteksi dan melacak titik-titik landmark di wajah seseorang dalam gambar atau video secara real-time.

Titik landmark ini dapat digunakan untuk berbagai tujuan, termasuk animasi wajah, deteksi ekspresi, dan pengenalan wajah. "You Only Look Once v5 (YOLOv5)" adalah model deteksi objek yang sangat efisien dan akurat yang dilatih pada kumpulan data besar gambar dan video yang dilabeli. Model ini dapat mendeteksi objek dalam gambar dan video secara real-time, dan dapat digunakan untuk berbagai tujuan, termasuk pengawasan, otomasi, dan robotika. "Deep Web" adalah bagian tersembunyi dari internet yang tidak diindeks oleh mesin pencari konvensional seperti Google.

Deep Web hanya dapat diakses melalui software khusus dan sering kali memerlukan otentikasi khusus. Deep Web sering kali digunakan untuk aktivitas ilegal, termasuk perdagangan narkoba, senjata, dan pornografi anak. Karena sifatnya yang rahasia, Deep Web juga digunakan oleh penjahat siber untuk berkomunikasi dan berbagi informasi. "Tiga huruf agencies" adalah istilah informal untuk badan intelijen yang biasanya memiliki nama singkatan tiga huruf, seperti CIA (Central Intelligence Agency), FBI (Federal Bureau of Investigation), dan NSA (National Security Agency).

Badan-badan ini bertanggung jawab untuk mengumpulkan dan menganalisis intelijen, serta melakukan operasi rahasia untuk melindungi keamanan nasional. "Mirror" adalah istilah yang digunakan dalam kejahatan siber untuk menggambarkan situs web atau server yang merupakan salinan persis dari situs web atau server asli. Penjahat siber sering kali membuat cermin untuk melindungi aset mereka dari serangan atau penyitaan oleh pihak berwenang. Jika situs web atau server asli disita, penjahat siber dapat dengan mudah mengarahkan pengguna ke cermin untuk melanjutkan aktivitas mereka. "Cermin" digunakan untuk berbagai tujuan, termasuk untuk menyebarkan spam, menjalankan skema phishing, atau menyembunyikan data ilegal. Peningkatan penggunaan AI dalam kejahatan siber telah menimbulkan keprihatinan serius di seluruh dunia. Karena AI terus berkembang dan menjadi lebih canggih, para penjahat siber akan memiliki kemampuan yang lebih besar untuk melakukan kejahatan yang kompleks dan berbahaya. Penting bagi pemerintah, industri, dan individu untuk bekerja sama untuk mengatasi ancaman AI dalam kejahatan siber. Ini berarti meningkatkan kesadaran tentang ancaman tersebut, mengembangkan strategi keamanan yang kuat, dan berinvestasi dalam penelitian dan pengembangan teknologi AI yang dapat digunakan untuk melawan kejahatan siber.