- OpenAI menyembunyikan cara kerja model AI "Strawberry" dari pengguna.
- Kebijakan ini menimbulkan kekhawatiran tentang transparansi dan etika AI.
- Keputusan OpenAI dapat mengurangi kepercayaan masyarakat terhadap teknologi AI.
pibitek.biz -OpenAI, perusahaan pengembang AI yang terkenal, tampaknya ingin menjaga kerahasiaan tentang cara kerja model AI terbaru mereka, yang dikenal sebagai "Strawberry". Model ini diklaim memiliki kemampuan bernalar, yang diimplementasikan dalam dua varian: o1-preview dan o1-mini. Sejak dirilis, OpenAI telah mengirimkan peringatan dan ancaman pemblokiran kepada pengguna yang mencoba mengungkap cara kerja model ini. Keunikan model AI "Strawberry" terletak pada kemampuannya untuk menyelesaikan masalah melalui langkah-langkah yang terstruktur.
2 – OSCAL TIGER 13: Ponsel Pintar dengan Kamera AI nan Hebat 2 – OSCAL TIGER 13: Ponsel Pintar dengan Kamera AI nan Hebat
3 – Sengketa XRP: Pertempuran Hukum yang Tak Kunjung Berakhir 3 – Sengketa XRP: Pertempuran Hukum yang Tak Kunjung Berakhir
Ketika pengguna mengajukan pertanyaan kepada model ini melalui ChatGPT, mereka memiliki opsi untuk melihat proses berpikir yang diuraikan secara bertahap. Akan tetapi, OpenAI secara sengaja menyembunyikan detail proses berpikir mentah tersebut. Sebaliknya, pengguna hanya melihat interpretasi yang telah difilter oleh model AI kedua. Hal ini menimbulkan rasa penasaran di kalangan para ahli dan penggiat AI, yang ingin mengetahui cara kerja "Strawberry". Para "hacker" dan "red-teamer" berlomba-lomba untuk mengungkap proses berpikir mentah model AI ini dengan menggunakan teknik "jailbreaking" atau "prompt injection", yang bertujuan untuk menipu model AI agar membocorkan rahasianya.
Meskipun telah ada laporan awal tentang keberhasilan, belum ada yang dapat dikonfirmasi secara pasti. OpenAI, melalui antarmuka ChatGPT, secara ketat memantau aktivitas para pengguna yang berusaha menyelidiki "Strawberry". Perusahaan ini menindak tegas setiap upaya untuk mengungkap cara kerja model AI tersebut, bahkan bagi pengguna yang hanya ingin tahu. Salah satu pengguna platform media sosial X melaporkan bahwa ia menerima email peringatan setelah menggunakan istilah "reasoning trace" dalam percakapan dengan o1.
Pengguna lain menyebutkan bahwa peringatan muncul ketika mereka mengajukan pertanyaan tentang kemampuan "reasoning" model AI tersebut. Email peringatan dari OpenAI menyatakan bahwa permintaan spesifik pengguna telah ditandai karena melanggar kebijakan yang melarang pengguna untuk melewati tindakan pengamanan atau fitur keamanan. Email tersebut juga mengingatkan pengguna untuk menggunakan ChatGPT sesuai dengan persyaratan layanan dan kebijakan penggunaan. Mereka juga memperingatkan bahwa pelanggaran berulang dapat mengakibatkan pemblokiran akses ke "GPT-4o with Reasoning", yang merupakan nama internal untuk model o1.
Marco Figueroa, pengelola program bug bounty AI Generatif milik Mozilla, menjadi salah satu yang pertama kali mengunggah email peringatan dari OpenAI di platform X. Ia mengecam kebijakan OpenAI, dengan alasan bahwa hal ini menghambat penelitian keamanan "red-teaming" yang positif pada model AI. Dalam sebuah postingan blog berjudul "Learning to Reason with LLM" di situs web OpenAI, perusahaan ini menjelaskan bahwa rantai berpikir tersembunyi dalam model AI menawarkan peluang pemantauan yang unik. Dengan mengamati proses berpikir model AI, mereka dapat memahami cara model AI tersebut bekerja dan mencapai simpulan.
Proses berpikir ini sangat bermanfaat bagi OpenAI, terutama jika dibiarkan mentah dan tidak disensor. Namun, hal ini mungkin tidak selaras dengan kepentingan komersial perusahaan karena beberapa alasan. OpenAI menyatakan bahwa perusahaan ini mungkin ingin memantau rantai berpikir untuk mendeteksi tanda-tanda manipulasi pengguna di masa depan. Namun, untuk mencapai tujuan ini, model AI harus bebas mengekspresikan pikirannya tanpa modifikasi. Oleh karena itu, OpenAI tidak dapat menerapkan kebijakan kepatuhan atau preferensi pengguna pada rantai berpikir tersebut.
Selain itu, OpenAI tidak ingin memaparkan proses berpikir mentah kepada pengguna. OpenAI memutuskan untuk tidak menampilkan rantai berpikir mentah kepada pengguna karena beberapa faktor, antara lain kebutuhan untuk mempertahankan data mentah untuk penggunaan internal, pengalaman pengguna, dan "keunggulan kompetitif". OpenAI mengakui bahwa keputusan ini memiliki kekurangan. Untuk mengatasinya, mereka melatih model AI untuk menghasilkan kembali ide-ide bermanfaat dari rantai berpikir dalam jawabannya.
Simon Willison, peneliti AI independen, menyatakan kekecewaannya terkait dengan keputusan OpenAI untuk menyembunyikan cara kerja o1 dalam sebuah tulisan di blog pribadinya. Ia berpendapat bahwa keputusan tersebut didasarkan pada keinginan OpenAI untuk mencegah model AI lain dilatih menggunakan data tentang cara kerja model o1. Dalam industri AI, sudah menjadi rahasia umum bahwa para peneliti secara rutin menggunakan output dari GPT-4 (dan GPT-3 sebelumnya) sebagai data pelatihan untuk model AI yang seringkali menjadi pesaing, meskipun hal ini melanggar persyaratan layanan OpenAI.
Pengumuman rantai berpikir mentah dari o1 akan menjadi sumber data pelatihan yang berlimpah bagi para pesaing untuk melatih model AI yang mirip dengan o1. Willison percaya bahwa keputusan OpenAI untuk menjaga kerahasiaan cara kerja o1 merupakan kerugian bagi transparansi komunitas AI. Menurutnya, interpretabilitas dan transparansi sangat penting dalam pengembangan model AI, dan keputusan OpenAI untuk menyembunyikan detail penting tentang cara kerja model AI dianggap sebagai kemunduran besar. Pendekatan OpenAI menimbulkan kekhawatiran tentang transparansi dan etika dalam pengembangan AI.
Seiring dengan meningkatnya kemampuan AI, kebutuhan untuk memahami cara kerja model AI secara menyeluruh menjadi semakin penting. Keputusan OpenAI untuk merahasiakan cara kerja model AI mereka menunjukkan bahwa perusahaan ini lebih mementingkan kepentingan komersial dan keunggulan kompetitif daripada transparansi dan akuntabilitas. Hal ini dapat berdampak negatif terhadap kepercayaan masyarakat terhadap AI. Jika masyarakat tidak memahami cara kerja AI, mereka mungkin akan merasa tidak nyaman dengan penggunaan AI dalam kehidupan sehari-hari.
OpenAI seharusnya lebih transparan tentang cara kerja model AI mereka, terutama karena model AI ini memiliki potensi untuk memengaruhi kehidupan manusia secara signifikan. OpenAI, sebagai salah satu perusahaan yang paling berpengaruh dalam bidang AI, memiliki tanggung jawab untuk memimpin dalam hal transparansi dan etika. Keputusan OpenAI untuk menyembunyikan cara kerja model AI mereka menimbulkan pertanyaan tentang komitmen perusahaan ini terhadap nilai-nilai tersebut.