OpenAI & Anthropic: Model AI Masuk Lab Pemerintah



OpenAI & Anthropic: Model AI Masuk Lab Pemerintah - image from: venturebeat - pibitek.biz - Risiko

image from: venturebeat


336-280
TL;DR
  • OpenAI dan Anthropic setuju untuk mengirim model AI ke pemerintah.
  • Tujuannya adalah untuk menjamin keamanan dan keselamatan AI.
  • Kolaborasi ini diharapkan mempercepat kemajuan keamanan AI.

pibitek.biz -Dua perusahaan pengembang AI terkemuka, OpenAI dan Anthropic, sepakat untuk "mengirim" model AI buatan mereka ke lembaga pemerintah untuk dinilai keamanannya. Langkah ini merupakan bagian dari upaya untuk menjamin pengembangan AI yang bertanggung jawab dan aman. Kesepakatan ini melibatkan AI Safety Institute, lembaga independen yang didirikan di bawah naungan National Institute of Standards and Technology (NIST) milik pemerintah Amerika Serikat. AI Safety Institute akan mendapatkan akses ke model AI yang akan dirilis oleh OpenAI dan Anthropic, baik sebelum maupun setelah mereka tersedia untuk publik.

Model-model ini akan diuji dan dievaluasi oleh para peneliti di AI Safety Institute untuk mengetahui potensi bahaya dan risiko yang mungkin ditimbulkan. Tujuannya adalah untuk memastikan model AI ini aman dan dapat digunakan tanpa menimbulkan ancaman bagi masyarakat. Langkah yang sama juga dilakukan di Inggris, di mana AI Safety Institute di sana juga mendapatkan akses ke model AI dari berbagai pengembang untuk diteliti dan dinilai. Kolaborasi ini diharapkan dapat mempercepat kemajuan dalam bidang keamanan AI dan merumuskan standar keamanan yang universal.

Elizabeth Kelly, Direktur AI Safety Institute, mengumumkan rasa optimisnya dengan kolaborasi baru ini. Ia yakin bahwa kesepakatan ini menjadi awal yang baik untuk mengembangkan ilmu keamanan AI dan mengarahkan pengembangan AI ke arah yang bertanggung jawab. OpenAI dan Anthropic, yang keduanya merupakan perusahaan terdepan dalam pengembangan AI, juga menyatakan dukungan penuh terhadap misi AI Safety Institute dan berjanji untuk berkolaborasi dalam merumuskan praktik dan standar keamanan AI. Jason Kwon, Chief Strategy Officer OpenAI, meyakini bahwa AI Safety Institute memiliki peran penting dalam membentuk kepemimpinan Amerika Serikat dalam pengembangan AI yang bertanggung jawab.

Ia berharap hasil kolaborasi ini dapat menjadi kerangka kerja bagi negara-negara lain untuk mengadopsi. OpenAI, yang dikenal sebagai pengembang ChatGPT, telah menunjukkan komitmennya dalam hal keamanan AI. Sam Altman, CEO OpenAI, sebelumnya menyatakan bahwa perusahaan siap memberikan model AI mereka kepada lembaga pemerintah untuk diuji keamanan sebelum dirilis ke publik. Anthropic, yang juga merupakan perusahaan pengembang AI yang memiliki sejumlah mantan karyawan OpenAI, telah mengirimkan model AI mereka yang bernama Claude 3.5 Sonnet ke AI Safety Institute di Inggris sebelum dirilis ke publik.

Langkah ini menunjukkan komitmen kuat Anthropic untuk mengembangkan AI yang aman dan dapat diandalkan. Jack Clark, salah satu pendiri dan kepala kebijakan Anthropic, menekankan bahwa kolaborasi ini memungkinkan AI Safety Institute untuk menguji model AI mereka secara ketat sebelum dirilis secara luas. Hal ini membantu Anthropic untuk mengidentifikasi dan mengurangi risiko yang mungkin muncul, sekaligus meningkatkan pengembangan AI yang bertanggung jawab. Inisiatif ini merupakan bagian dari upaya pemerintah Amerika Serikat untuk mengatur pengembangan AI.

Presiden Joe Biden telah mengeluarkan dekrit eksekutif yang mendorong pengembangan dan penggunaan AI yang aman, bertanggung jawab, dan dapat diandalkan. Namun, dekrit ini bukan merupakan undang-undang dan dapat dibatalkan oleh presiden berikutnya. Meskipun demikian, dekrit tersebut telah mendorong perusahaan pengembang AI untuk secara sukarela menyerahkan model mereka untuk dievaluasi keamanan. NIST, lembaga yang mengelola AI Safety Institute, mengakui bahwa penyerahan model AI untuk dievaluasi keamanan masih bersifat sukarela.

Namun, mereka berharap hal ini dapat membantu mendorong pengembangan AI yang aman, andal, dan dapat dipercaya. NIST juga akan melakukan studi tentang dampak model AI dengan bobot terbuka, atau model yang bobotnya dapat diakses publik, terhadap ekosistem AI saat ini. Namun, mereka juga mengakui bahwa mereka tidak dapat secara aktif memantau semua model AI yang terbuka. Meskipun kesepakatan ini menunjukkan kemajuan dalam mengatur keamanan model AI, masih ada kekhawatiran bahwa istilah "keamanan" terlalu umum dan kurang jelas definisinya.

Hal ini dapat menyebabkan kebingungan dan kesulitan dalam merumuskan peraturan yang efektif. Kelompok-kelompok yang peduli dengan keamanan AI menyambut baik kesepakatan ini, tetapi juga mengingatkan OpenAI dan Anthropic untuk benar-benar menjalankan janji mereka. Nicole Gill, direktur eksekutif dan salah satu pendiri Accountable Tech, menekankan pentingnya bagi OpenAI dan Anthropic untuk mengikuti komitmen mereka. Menurutnya, semakin banyak informasi yang diterima oleh regulator tentang perkembangan pesat AI, maka akan semakin baik dan aman produk AI yang dihasilkan.