Buru Bug AI: Pemerintah Ajak Warga Berburu Kesalahan AI



Buru Bug AI: Pemerintah Ajak Warga Berburu Kesalahan AI - credit for: wired - pibitek.biz - Hacker

credit for: wired


336-280
TL;DR
  • Red-teaming kayak main petak umpet, ngetes AI dengan cara ngasih serangan.
  • Program Humane Intelligence ngajak warga ngetes AI, kayak ngasih kesempatan belajar.
  • Red-teaming ngasih latihan perang ke AI, biar makin kuat dan gak gampang ditembus.

pibitek.biz -Bayangin, kamu lagi ngobrol bareng temen-temen di acara hackathon Defcon di Las Vegas, dan tiba-tiba ada ajakan keren: cari celah di sistem AI canggih, yang lagi naik daun. Nah, ternyata ini bukan sekedar mimpi, lho! Perusahaan AI ternama dan organisasi yang peduli integritas AI berkolaborasi untuk ngajakin ribuan peserta Defcon 2023 buat ngetes AI Generatif. Kayak lagi main petak umpet, tapi versi canggih, mereka ngasih nama kerennya “red-teaming”. Nah, pemerintah Amerika Serikat ikut ngedukung kegiatan ini.

Tujuannya? Sederhana, buat ngebuka tabir misteri di balik AI canggih, yang makin lama makin punya pengaruh besar di hidup kita. Tapi sistemnya masih opaque, alias gak jelas. Makanya, mereka pengen ngelihat, seberapa kuat sistem AI ini, dan apa aja kelemahannya. Tapi bukan cuma di Defcon, lho. Sekarang ada gerakan baru yang makin seru. Humane Intelligence, organisasi nirlaba yang fokus di bidang AI etis, ngajak warga Amerika Serikat buat ikutan "red-teaming". Mereka ngebuka program online buat developer dan masyarakat umum, buat ngetes software AI yang bisa bantu produktivitas kerja.

Yang menarik, program ini digarap bareng National Institute of Standards and Technology (NIST). NIST ini kayak "jagoan" ngatur standar AI, mereka punya program namanya ARIA, kepanjangan dari Assessing Risks and Impacts of AI. Program ini kayak arena adu kekuatan AI, ngasih kesempatan buat pengguna dan developer buat ngetes AI langsung. Hasilnya? Dari "red-teaming" ini, mereka berharap bisa ngembangin metode ngetes AI yang lebih canggih lagi. "Red-teaming" ini kayak kayak ngasih "latihan perang" ke AI, biar makin kuat dan gak gampang ditembus.

Terus gimana cara ngetestnya? Peserta dibagi jadi dua tim: "red team" dan "blue team". "Red team" kayak hacker yang bertugas ngehack AI, nemuin kelemahannya, dan ngasih serangan. "Blue team" jadi pihak yang ngebela AI, ngebenerin kelemahan yang ketauan. "Red-teaming" ini makin seru karena pake AI 600-1 profile, standar NIST buat ngukur keamanan AI. Dengan standar ini, kita bisa tau seberapa baik AI dalam mengatasi berbagai serangan, dan seberapa ethical sistemnya. Kerennya lagi, Humane Intelligence ngasih sinyal kalau ini baru awal.

Mereka bakalan ngerangkul berbagai pihak, mulai dari pemerintah Amerika Serikat, negara-negara lain, dan organisasi nirlaba buat ngelaksanain "red-teaming" AI secara global. Mereka ngejar target mulia: bikin AI makin transparan dan bertanggung jawab. Misalnya, mereka ngeluarin "bias bounty challenges". Bayangin, kamu bisa dapet hadiah kalau kamu nemuin bias atau ketimpangan di sistem AI. Seru banget kan? Idealnya, program ini gak cuma dikerjain oleh para programmer, tapi juga orang-orang dari berbagai profesi.

Kayak para pembuat kebijakan, jurnalis, aktivis, dan masyarakat umum. Mereka punya perspektif berbeda yang penting buat ngetes AI. "Red-teaming" ini juga penting buat memastikan orang-orang dari berbagai latar belakang, termasuk yang punya bahasa dan budaya berbeda, bisa ikutan ngetes AI. Ini penting buat ngehindarin bias dan ketidakadilan di sistem AI. "Red-teaming" ini kayak lagi ngasih kesempatan buat AI belajar dari kesalahan dan jadi lebih baik. Dengan bantuan warga, AI bisa jadi lebih tangguh, aman, dan adil.