Bahaya AI: ChatGPT Digunakan untuk Kembangkan Malware



Bahaya AI: ChatGPT Digunakan untuk Kembangkan Malware - the image via: techreport - pibitek.biz - Ahli

the image via: techreport


336-280
TL;DR
  • Pelaku kejahatan siber memanfaatkan ChatGPT untuk membangun malware.
  • OpenAI berupaya menonaktifkan akun yang terlibat dalam kejahatan.
  • Pengembangan AI harus dilakukan secara etis dan bertanggung jawab.

pibitek.biz -OpenAI, perusahaan di balik ChatGPT, baru-baru ini merilis laporan intelijen ancaman yang mengumumkan bahwa para pelaku kejahatan siber telah memanfaatkan platform AI mereka untuk membangun dan men-debug malware. Laporan tersebut menyoroti beberapa kelompok yang telah memanfaatkan ChatGPT untuk tujuan jahat, menunjukkan ancaman serius yang ditimbulkan oleh teknologi AI canggih ini jika jatuh ke tangan yang salah. Laporan tersebut mencatat bahwa sejak awal tahun 2024, OpenAI telah berhasil menggagalkan 20 operasi dan jaringan penipuan yang terkait dengan penggunaan ChatGPT yang tidak etis.

Salah satu kelompok yang disebutkan dalam laporan tersebut adalah SweetSpecter, sebuah kelompok mata-mata siber asal China yang dikenal karena melancarkan serangan terhadap pemerintah dan lembaga pemerintah di Asia. SweetSpecter mencoba menyerang OpenAI melalui serangan phishing, yang merupakan upaya untuk memperoleh informasi sensitif dari individu atau organisasi dengan menggunakan email atau pesan palsu yang tampak sah. SweetSpecter menggunakan akun ChatGPT untuk membuat kode dan menganalisis kerentanan sistem.

Hal ini menunjukkan bahwa kelompok ini memanfaatkan kemampuan ChatGPT untuk menghasilkan kode dan mencari celah keamanan dalam software atau sistem komputer. Tujuan mereka adalah untuk mengeksploitasi kerentanan tersebut guna mendapatkan akses ke informasi rahasia atau mengacaukan operasi penting. Kelompok lain yang terlibat dalam kejahatan siber, CyberAv3ngers, juga diidentifikasi menggunakan ChatGPT untuk meningkatkan kemampuan mereka. CyberAv3ngers, yang dikendalikan oleh Korps Garda Revolusi Islam Iran, dikenal karena menyerang infrastruktur penting dan menargetkan software yang digunakan oleh pemerintah dan organisasi penting.

Kelompok ini menggunakan ChatGPT untuk mempelajari teknik serangan baru, seperti mencuri kata sandi pada perangkat macOS dan mengeksploitasi kerentanan tertentu. Storm-0817, kelompok lain yang berpusat di Iran, juga ditemukan menggunakan ChatGPT untuk kegiatan jahatnya. Kelompok ini menggunakan ChatGPT untuk men-debug malware dan mengembangkan alat pengumpul data Instagram. Mereka menggunakan ChatGPT untuk membangun software berbahaya yang dapat mengunduh data pribadi dari perangkat Android, termasuk kontak, riwayat penelusuran, lokasi, dan log panggilan.

Kemampuan ChatGPT untuk membuat kode dan men-debug malware meningkatkan kekhawatiran tentang penggunaan teknologi AI untuk kejahatan siber. Hal ini menunjukkan bahwa para pelaku kejahatan siber dapat menggunakan platform AI untuk mengembangkan serangan yang lebih canggih dan sulit dideteksi, meningkatkan ancaman terhadap keamanan siber global. Penyalahgunaan ChatGPT bukan hanya terbatas pada pembuatan kode malware. Para pelaku kejahatan siber juga menggunakan platform AI ini untuk membuat konten yang dirancang untuk memengaruhi opini publik dan memengaruhi hasil pemilihan umum.

Hal ini menunjukkan bahwa AI dapat disalahgunakan untuk memanipulasi opini publik dan menyebarkan propaganda yang dapat merusak kepercayaan pada lembaga-lembaga penting. Meskipun OpenAI telah berupaya untuk menonaktifkan akun yang digunakan oleh para pelaku kejahatan siber, bahaya yang ditimbulkan oleh penggunaan ChatGPT untuk kejahatan siber tetap nyata. Para pelaku kejahatan siber dapat dengan mudah membuat akun baru atau beralih ke platform AI lain yang mungkin tidak seketat OpenAI dalam memantau aktivitas pengguna.

OpenAI telah menerapkan upaya untuk mencegah penyalahgunaan platformnya, termasuk pemblokiran akun yang terlibat dalam kegiatan berbahaya dan mengembangkan kebijakan yang ketat untuk penggunaan platform. Namun, perlombaan senjata antara penegak hukum dan pelaku kejahatan siber terus berlanjut. Dalam situasi ini, tindakan pencegahan dan tindakan proaktif sangat penting untuk membendung ancaman AI yang meningkat. Organisasi dan individu harus waspada terhadap ancaman yang ditimbulkan oleh AI dan mengambil langkah-langkah untuk melindungi diri dari serangan yang memanfaatkan teknologi ini.

Perusahaan teknologi harus bekerja sama untuk mengembangkan standar etika dan keamanan yang ketat untuk pengembangan dan penggunaan AI. Pengembangan teknologi AI yang etis dan bertanggung jawab harus menjadi prioritas utama agar AI dapat digunakan untuk tujuan positif tanpa menimbulkan bahaya yang tidak diinginkan. Para ahli keamanan siber harus terus mempelajari dan mengembangkan metode baru untuk mendeteksi dan mencegah serangan yang memanfaatkan AI. Hal ini termasuk meningkatkan kemampuan mereka untuk mendeteksi kode berbahaya yang dihasilkan oleh AI dan mengidentifikasi pola serangan yang memanfaatkan teknologi AI.

Kemunculan AI dalam kejahatan siber telah mengubah lanskap keamanan siber. Tindakan pencegahan yang tidak memadai dapat mengakibatkan konsekuensi yang serius, termasuk kebocoran data, kerugian finansial, dan gangguan pada layanan penting. Kita tidak boleh meremehkan ancaman yang ditimbulkan oleh AI dan harus mengambil tindakan yang tegas untuk melindungi diri kita dari bahaya yang ditimbulkan oleh teknologi ini. Namun, pengembangan AI telah membuka pintu bagi berbagai peluang positif. AI memiliki potensi untuk merevolusi banyak industri dan membantu memecahkan masalah global yang mendesak.

Untuk mencapai potensi penuh AI, kita harus memastikan bahwa teknologi ini dikembangkan dan digunakan secara bertanggung jawab, etis, dan aman. Saat kita memasuki era teknologi canggih, tanggung jawab kita untuk memastikan bahwa AI digunakan untuk kebaikan bersama. Kita harus secara proaktif menentang penyalahgunaan AI dan bekerja sama untuk memastikan bahwa AI digunakan untuk memajukan kemanusiaan, bukan untuk menghancurkan kita.