Risiko — Serangan jailbreak pada AI Generatif berhasil dalam 20% kasus, dengan rata-rata waktu 42 detik dan lima interaksi untuk menerobos pertahanan AI. Model AI yang paling banyak ditargetkan adalah GPT-4 dari OpenAI dan Llama-3 dari Meta, karena adopsi yang...
Tag: Jailbreak (4)

Penyalahgunaan AI Cloud untuk Jalankan Bot Seks – SDKPenyalahgunaan AI Cloud untuk Jalankan Bot Seks – SDK
Para peretas memanfaatkan sistem AI berbasis cloud untuk menjalankan bot seks dan meraup keuntungan ilegal dengan mendistribusikan bot seks kepada pengguna melalui...

Instruksi — OpenAI Model O1: Si Jenius Baru AIInstruksi — OpenAI Model O1: Si Jenius Baru AI
OpenAI baru-baru ini ngeluarin model AI terbaru mereka, O1. Ini model baru yang diklaim bisa ngebuat AI makin cerdas, bisa ngerjain masalah rumit dengan kemampuan ngalor-ngidul yang kayaknya lebih hebat dari GPT-4. Sebelum O1 muncul, banyak orang ngebahas model AI OpenAI lainnya, kayak Strawberry, Orion, bahkan Q*. Tapi yang paling

User — Rabbit R1 Keceplosan Simpen Chat!User — Rabbit R1 Keceplosan Simpen Chat!
Rabbit R1, AI asisten, diam-diam ngumpulin obrolan pengguna tanpa izin. Pembaruan software baru Rabbit R1 ngasih opsi Factory Reset dan ngelindungi data pairing. Kasus ini ngingetin kita pentingnya transparansi dan keamanan dalam penggunaan...