Apa Itu Keamanan AI dan Kenapa Penting?



TL;DR
  • Keamanan AI adalah topik yang belum jelas.
  • Ada empat masalah utama dalam keamanan AI.
  • AI bisa mengubah instruksi dan interaksi dengan dunia.
Apa Itu Keamanan AI dan Kenapa Penting? - photo from: darkreading - pibitek.biz - Teknologi

photo from: darkreading


336-280

pibitek.biz - Keamanan AI adalah topik yang sedang ramai dibicarakan. Banyak orang yang tertarik dengan AI dan ingin memanfaatkannya untuk berbagai tujuan. Namun, apakah kita sudah tahu apa itu keamanan AI dan bagaimana cara melindungi AI dari ancaman? Keamanan AI sebenarnya belum jelas definisinya. Karena AI sendiri masih berkembang dan berubah-ubah, kita belum tahu bagaimana cara mengembangkan dan menggunakan AI dengan aman. Biasanya, keamanan untuk sesuatu baru muncul setelah sesuatu itu sudah matang. Misalnya, keamanan untuk cloud, jaringan, atau aplikasi web.

Tapi, AI masih menjadi target yang bergerak. Meski begitu, ada beberapa masalah utama yang muncul dalam keamanan AI. Masalah-masalah ini berkaitan dengan kepentingan berbeda dari orang-orang di dalam organisasi.

Belum tentu masalah-masalah ini bisa disatukan, meski tentu saja ada persamaannya. Masalah-masalah ini adalah: Keterlihatan Pencegahan kebocoran data Kontrol model AI Membangun aplikasi AI yang aman Mari kita bahas satu per satu. Keamanan selalu dimulai dengan keterlihatan, dan hal ini juga berlaku untuk aplikasi AI.

Kemungkinan besar, banyak tim di organisasi kamu yang sedang menggunakan dan membangun aplikasi AI. Beberapa mungkin punya pengetahuan, sumber daya, dan kecerdasan keamanan yang cukup, tapi beberapa mungkin tidak. Setiap tim bisa menggunakan teknologi yang berbeda untuk membuat aplikasi mereka dan menerapkan standar yang berbeda untuk memastikan mereka berfungsi dengan baik.

Untuk menstandarkan praktik, beberapa organisasi membuat tim khusus untuk menginventarisasi dan meninjau semua aplikasi AI. Meski ini bukan tugas yang mudah di perusahaan, keterlihatan cukup penting untuk memulai proses ini. Ketika ChatGPT pertama kali dirilis, banyak perusahaan yang berusaha keras untuk memblokirnya.

Setiap minggu ada berita baru tentang perusahaan yang kehilangan IP mereka ke AI karena ada karyawan yang menyalin-tempel data rahasia ke chat untuk minta ringkasan atau puisi lucu. Ini menjadi pembicaraan utama selama beberapa minggu. Karena kamu tidak bisa mengontrol ChatGPT sendiri, apalagi AI lain yang mulai muncul di pasar konsumen, ini menjadi tantangan yang besar.

Perusahaan mengeluarkan kebijakan penggunaan yang dapat diterima dengan layanan AI perusahaan yang disetujui, tapi kebijakan ini tidak mudah ditegakkan. Masalah ini mendapat banyak perhatian sehingga OpenAI, yang menyebabkan keresahan di awal, mengubah kebijakannya untuk memungkinkan pengguna keluar dari menjadi bagian dari set pelatihan dan organisasi membayar untuk keluar atas nama semua pengguna mereka. Masalah ini ? pengguna menempelkan informasi yang salah ke aplikasi yang tidak sesuai ? mirip dengan apa yang solusi pencegahan kebocoran data (DLP) dan broker keamanan akses cloud (CASB) ciptakan untuk menyelesaikannya.

Apakah perusahaan bisa menggunakan tools ini yang dibuat untuk data konvensional untuk melindungi data dalam AI masih belum diketahui. Pikirkan tentang injeksi SQL, yang meningkatkan industri pengujian keamanan aplikasi. Ini terjadi ketika data diterjemahkan sebagai instruksi, menghasilkan memungkinkan orang yang mengubah data aplikasi (yaitu pengguna) untuk mengubah instruksi aplikasi (yaitu perilakunya).

Dengan bertahun-tahun masalah parah yang menghancurkan aplikasi web, kerangka pengembangan aplikasi telah bangkit untuk menghadapi tantangan dan sekarang menangani masukan pengguna dengan aman. Jika kamu menggunakan kerangka modern dan mengikuti jalurnya, injeksi SQL untuk semua tujuan praktis adalah masalah yang terpecahkan. Salah satu hal aneh tentang AI dari perspektif insinyur adalah bahwa mereka mencampur instruksi dan data.

Kamu memberi tahu AI apa yang kamu inginkan dengan teks, dan kemudian kamu membiarkan pengguna kamu menambahkan lebih banyak teks ke masukan yang sama. Seperti yang bisa kamu harapkan, ini menghasilkan pengguna dapat mengubah instruksi. Menggunakan prompt yang cerdas memungkinkan kamu melakukan itu bahkan jika pembuat aplikasi benar-benar mencoba mencegahnya, masalah yang kita semua tahu sekarang sebagai injeksi prompt.

Bagi pengembang aplikasi AI, mencoba mengontrol model yang tidak terkendali ini adalah tantangan yang nyata. Ini adalah masalah keamanan, tapi juga masalah prediktabilitas dan kegunaan. Setelah kamu mengizinkan AI untuk bertindak atas nama pengguna dan menghubungkan tindakan-tindakan itu satu demi satu, kamu telah mencapai wilayah yang belum dipetakan.

Apakah kamu benar-benar bisa tahu apakah AI sedang melakukan hal-hal yang harus dilakukan untuk mencapai tujuannya? Jika kamu bisa memikirkan dan mencantumkan semua hal yang mungkin perlu dilakukan AI, kamu mungkin tidak perlu AI. Yang penting, masalah ini adalah tentang bagaimana AI berinteraksi dengan dunia, dan jadi itu sebanyak tentang dunia seperti halnya tentang AI. Kebanyakan aplikasi Copilot bangga mewarisi kontrol keamanan yang ada dengan meniru pengguna, tapi apakah kontrol keamanan pengguna benar-benar begitu ketat? Apakah kita bisa mengandalkan izin yang ditetapkan dan dikelola pengguna untuk melindungi data sensitif dari AI yang penasaran? Mencoba mengatakan sesuatu tentang di mana AI atau dengan perpanjangan keamanan AI akan berakhir adalah mencoba memprediksi masa depan.