Cacing AI Serang Pengguna Lewat Email Berbasis AI



TL;DR
  • Cacing AI bisa curi data dan spam email.
  • Peneliti buat dan uji cacing AI di LLM populer.
  • Industri AI harus waspada dan siap hadapi ancaman ini.
Cacing AI Serang Pengguna Lewat Email Berbasis AI - credit for: tomshardware - pibitek.biz - GPU

credit for: tomshardware


336-280

pibitek.biz - Sebuah tim peneliti membuat cacing AI Generatiferatiferasi pertama yang bisa mencuri data, menyebarkan malware, dan mengirim spam lewat email. Cacing ini dibuat dan berfungsi dengan baik di lingkungan uji coba menggunakan LLM populer. Dari temuan mereka, peneliti memberi saran kepada pengembang AI Generatif tentang bahaya program jahat seperti ini.

Mereka juga membagikan makalah dan video yang menunjukkan cara cacing ini mencuri data dan mengganggu email lain. Cacing ini dibuat oleh Ben Nassi dari Cornell Tech, Stav Cohen dari Israel Institute of Technology, dan Ron Bitton dari Intuit. Mereka menamainya 'Morris II' sebagai penghormatan kepada Morris, cacing komputer pertama yang bikin heboh dunia online pada 1988.

Cacing ini menargetkan aplikasi AI Generatif dan asisten email berbasis AI yang bisa menghasilkan teks dan gambar dengan model AI seperti Gemini Pro, ChatGPT 4. 0, dan LLaVA. Cara kerja cacing ini adalah dengan menggunakan prompt yang bisa meniru diri sendiri dan menyerang model AI, mirip dengan cara jailbreak menyebarkan konten beracun dengan AI.

Peneliti mendemonstrasikan ini dengan membuat sistem email dengan mesin AI Generatif dan menggunakan prompt yang ditulis atau disisipkan dalam file gambar. Prompt teks menginfeksi asisten email dengan menggunakan LLM untuk mengambil data tambahan dari luar sistemnya, yang kemudian dikirim ke GPT-4 atau Gemini Pro untuk membuat konten teks. Konten ini membuat layanan AI Generatif terjebak dan berhasil mencuri data.

Prompt gambar menyembunyikan prompt yang bisa meniru diri sendiri dalam gambar, membuat asisten email meneruskan pesan yang berisi propaganda dan kekerasan ke semua orang, menginfeksi email baru dan meneruskan email yang terinfeksi. Selama proses ini, peneliti bisa menggali informasi rahasia, seperti nomor kartu kredit dan nomor jaminan sosial. Cacing yang berfungsi seperti ini, meski di lingkungan terkontrol, membuktikan bahwa ini bukan lagi hal teoretis dan perlu ditangani dengan serius dengan solusi yang efektif jika ada prompt jahat seperti ini.

Inilah pentingnya makalah penelitian seperti ini, yang dibagikan dengan pihak yang terkait dan untuk orang lain yang mau mensimulasikan dan memverifikasi. Seperti peneliti yang bertanggung jawab, tim ini melaporkan temuan mereka ke Google dan OpenAI. Wired mencoba menghubungi Google, tapi mereka menolak berkomentar tentang penelitian ini, sementara juru bicara OpenAI memberi tanggapan.

Mereka bilang, "Sepertinya mereka menemukan cara untuk memanfaatkan kerentanan prompt-injection dengan mengandalkan input pengguna yang tidak dicek atau disaring". Mereka juga menjamin bahwa mereka sedang membuat sistem mereka lebih kuat dan menambahkan bahwa pengembang harus menggunakan metode yang memastikan mereka tidak bekerja dengan input yang berbahaya. Melihat bahwa metode seperti ini bisa menginfeksi aplikasi AI Generatif dan membahayakan sistem pengguna, temuan seperti ini muncul saat AI dan NPU diimplementasikan pada GPU dan CPU untuk PC, smartphone, mobil, dan layanan email, yang sangat penting.

Dalam beberapa kasus, SSD berbasis AI bisa mengenali dan menghapus ransomware. Tapi di sisi lain, kita punya cacing dan LLM khusus yang bisa membuat malware. Inilah saatnya industri berjalan dengan hati-hati dan punya tindakan pencegahan atau solusi yang efektif untuk setiap produk AI Generatif yang dirilis ke publik.