Riset terbaru menunjukkan bahwa serangan jailbreak pada AI Generatif, di mana model dipaksa untuk mengabaikan mekanisme pengamanannya, berhasil dalam 20% kasus. Rata-rata, penyerang hanya membutuhkan waktu 42 detik dan lima interaksi untuk menerobos pertahanan AI. Dalam beberapa kasus, serangan bahkan terjadi dalam waktu sesingkat empat detik. Temuan ini menyoroti kerentanan
Tag: Jailbreak (4)
Penyalahgunaan AI Cloud untuk Jalankan Bot Seks • SDKPenyalahgunaan AI Cloud untuk Jalankan Bot Seks • SDK
Perkembangan teknologi AI telah membawa angin segar di berbagai bidang. Namun, kemajuan ini juga membuka celah baru bagi para pelaku kejahatan siber. Para peneliti keamanan siber mengumumkan bahwa sistem AI kini menjadi target baru bagi para peretas. Mereka memanfaatkan sistem AI berbasis cloud untuk menjalankan bot seks dan meraup keuntungan
OpenAI Model O1: Si Jenius Baru AIOpenAI Model O1: Si Jenius Baru AI
OpenAI ngeluarin model O1 buat pengguna ngerjain tugas rumit. Model O1 ngeluarin jawaban logis, tapi lambat dan boros sumber daya. Pengguna khawatir OpenAI ngawasin aktivitas... [pibitek.biz|Rat|Model AI]
Rabbit R1 Keceplosan Simpen Chat! {Risiko}Rabbit R1 Keceplosan Simpen Chat! {Risiko}
Rabbit R1, AI asisten, diam-diam ngumpulin obrolan pengguna tanpa izin. Pembaruan software baru Rabbit R1 ngasih opsi Factory Reset dan ngelindungi data...