Konten – Riset terbaru menunjukkan bahwa serangan jailbreak pada AI Generatif, di mana model dipaksa untuk mengabaikan mekanisme pengamanannya, berhasil dalam 20% kasus. Rata-rata, penyerang hanya membutuhkan waktu 42 detik dan lima interaksi untuk menerobos pertahanan AI. Dalam beberapa kasus, serangan bahkan terjadi dalam waktu sesingkat empat detik. Temuan ini menyoroti kerentanan
Tag: Jailbreak (4)
Internet • Penyalahgunaan AI Cloud untuk Jalankan Bot SeksInternet • Penyalahgunaan AI Cloud untuk Jalankan Bot Seks
Para peretas memanfaatkan sistem AI berbasis cloud untuk menjalankan bot seks dan meraup keuntungan ilegal dengan mendistribusikan bot seks kepada pengguna melalui...
OpenAI Model O1: Si Jenius Baru AI – BetaOpenAI Model O1: Si Jenius Baru AI – Beta
OpenAI ngeluarin model O1 buat pengguna ngerjain tugas rumit. Model O1 ngeluarin jawaban logis, tapi lambat dan boros sumber daya. Pengguna khawatir OpenAI ngawasin aktivitas...
Rabbit R1 Keceplosan Simpen Chat!Rabbit R1 Keceplosan Simpen Chat!
Risiko — Rabbit R1, perangkat asisten AI yang lagi nge-hype, ternyata punya kebiasaan buruk. Mereka diam-diam ngumpulin semua obrolan pengguna di perangkat. Masalahnya? Enggak ada cara buat ngilangin data itu! Ya, bayangin aja, semua obrolan, rahasia, dan curhatan kalian tersimpan rapi di perangkat Rabbit R1. Berita buruknya, Rabbit R1 baru sadar kalau