Microsoft Bagi-Bagi Alat Tes Keamanan AI Gratis



TL;DR
  • Microsoft rilis PyRIT, alat tes AI Generatif.
  • PyRIT bisa deteksi risiko dan celah keamanan di AI.
  • PyRIT gratis dan terbuka di GitHub.
Microsoft Bagi-Bagi Alat Tes Keamanan AI Gratis - photo source: techradar - pibitek.biz - Machine Learning

photo source: techradar


336-280

pibitek.biz - Microsoft baru saja merilis alat tes keamanan AI yang biasa dipakai sendiri. Alat ini bisa digunakan untuk mengecek model AI yang bisa menghasilkan teks, gambar, atau suara. Namanya PyRIT, singkatan dari Python Risk Identification Toolkit. Alat ini bisa mendeteksi apakah model AI bisa menghasilkan hal-hal yang tidak diinginkan, seperti halusinasi, prasangka, atau konten terlarang. Alat ini juga bisa mengetahui apakah model AI bisa disalahgunakan, misalnya untuk membuat malware, jailbreak, atau pencurian identitas. Cara kerjanya, PyRIT mengirimkan teks-teks jahat ke model AI.

Lalu, PyRIT menilai respons model AI dan mengirimkan teks jahat lainnya untuk tes lebih lanjut. Ini namanya red teaming, yaitu ketika pengembang dan ahli keamanan mencoba menemukan celah-celah keamanan di model AI. Microsoft pakai PyRIT untuk ngetes salah satu sistem asisten AI-nya, Copilot.

PyRIT mengirimkan ribuan teks jahat untuk melihat seberapa tangguh Copilot. Dengan PyRIT, proses tes selesai dalam hitungan jam. Biasanya, tes bisa berlangsung selama mingguan.

PyRIT bisa diunduh gratis di GitHub. Alat ini bisa dipakai untuk mengecek aplikasi komersial dengan lisensi MIT, yang artinya bebas digunakan, diubah, atau disebarluaskan. Di GitHub, ada juga beberapa contoh penggunaan PyRIT, seperti cara pakai PyRIT untuk jailbreak sistem secara otomatis.

Baca juga: AI Generatif dan Tantangan Baru di Bidang Keamanan Siber PyRIT bukan pengganti tes manual, tapi cuma membantu mengotomatisasi bagian-bagian yang membosankan dari tes. Tujuan PyRIT adalah memberi pengembang gambaran tentang kinerja model AI dan sistem inferensinya. Gambaran ini bisa dibandingkan dengan model AI versi selanjutnya.

Microsoft bilang, PyRIT dibuat terbuka agar bisa membantu ahli keamanan dan insinyur machine learning menemukan risiko di sistem AI Generatif. "Ini memungkinkan mereka punya data empiris tentang seberapa baik model AI mereka saat ini, dan mendeteksi penurunan kinerja berdasarkan perbaikan di masa depan", tulis halaman GitHub PyRIT. Sebelumnya, Microsoft juga membuka akses ke alat tes lainnya, Counterfit. Tapi, alat ini kurang cocok untuk sistem AI Generatif. Counterfit masih bisa dipakai, tapi untuk sistem machine learning tradisional.