Bahaya Gaul di Dunia AI: Jaringan Pasokan ML Beresiko



Bahaya Gaul di Dunia AI: Jaringan Pasokan ML Beresiko - picture owner: thehackernews - pibitek.biz - Server

picture owner: thehackernews


336-280
TL;DR
  • Jaringan pasokan ML beresiko, celah keamanan ditemukan.
  • Hacker bisa mencuri data, menjalankan kode jahat, dan merusak sistem AI.
  • Pengembang dan pengguna harus waspada, menerapkan praktik keamanan yang baik.

pibitek.biz -Para ahli keamanan siber sedang panik. Kenapa? Karena mereka menemukan celah keamanan yang mengkhawatirkan di dalam jaringan pasokan software machine learning (ML). Kebayang kan, kalau sistem AI yang lagi ngetren ini dibobol, bisa kacau balau! Celah-celah yang ditemukan ini seperti pintu belakang yang terbuka lebar, dan para hacker bisa masuk dengan mudah. Jumlahnya? Lebih dari 20! Dan ini bukan sekedar lelucon. Ancamannya nyata dan bisa membuat sistem AI amburadul. Bayangkan platform MLOps, yang tugasnya merancang dan menjalankan model ML, dibobol.

Data-data berharga yang disimpan di platform tersebut, bisa saja dicuri dan dimanfaatkan untuk hal-hal yang tidak bertanggung jawab. Ternyata, kelemahan yang ditemukan ini terbagi menjadi dua kategori. Yang pertama, kelemahan bawaan dari format dan proses yang digunakan di platform ML. Kategori kedua, kelemahan yang muncul karena kesalahan dalam implementasi platform ML. Contohnya, model ML yang mendukung eksekusi kode secara otomatis ketika dimuat, bisa disalahgunakan oleh hacker untuk menjalankan kode jahat.

Bayangkan, hacker bisa mencuri data atau mengacaukan sistem dengan cara yang nggak terduga. Ada juga format dataset dan library yang memungkinkan eksekusi kode secara otomatis. Kalau data yang tersedia di publik bisa disisipi kode jahat, bisa bahaya banget! JupyterLab, platform web interaktif yang memudahkan pengguna untuk menjalankan kode dan melihat hasilnya, juga rentan. Hacker bisa memanfaatkannya untuk menyisipkan kode JavaScript jahat, dan menjalankan kode Python di platform tersebut. Masalahnya, kode JavaScript yang dijalankan di JupyterLab tidak terisolasi, sehingga hacker bisa menjalankan kode Python secara sembarangan.

Ini membuka peluang untuk melakukan serangan cross-site scripting (XSS), yang bisa mencuri data dan merugikan pengguna. Sebagai contoh, JFrog menemukan celah XSS di platform MLFlow. Hacker bisa memanfaatkan celah ini untuk menjalankan kode jahat di JupyterLab. Karena platform MLFlow sering digunakan bersama Jupyter Notebook, celah ini bisa berbahaya banget. Sebenarnya, kelemahan yang muncul akibat kesalahan implementasi juga perlu diwaspadai. Misalnya, kurangnya otentikasi di platform MLOps bisa membuat hacker dengan akses jaringan menjalankan kode jahat.

Para hacker bisa memanfaatkan fitur ML Pipeline di platform MLOps untuk mengendalikan sistem dan menjalankan kode jahat. Contohnya, ada serangan yang memanfaatkan celah keamanan di Anyscale Ray untuk memasang penambang mata uang kripto. Ini membuktikan bahwa ancaman keamanan di jaringan pasokan ML bukan sekadar teori. Selain itu, hacker juga bisa mencuri data dan model ML milik pengguna lain dengan cara menyisipkan model jahat ke server inferensi. Ini bisa terjadi jika platform MLOps tidak dirancang dengan keamanan yang kuat.

Seldon Core, salah satu platform MLOps, juga rentan terhadap serangan container escape. Hacker bisa memanfaatkannya untuk menjalankan kode jahat, mencuri data dan model ML, dan menyebarkan serangan ke server lain. Singkatnya, jaringan pasokan ML rawan terhadap serangan yang bisa berakibat fatal. Hacker bisa mencuri data dan model ML, menjalankan kode jahat, dan merusak sistem AI. Ancaman ini tidak hanya memengaruhi satu perusahaan, tapi bisa berdampak pada banyak pengguna. Ternyata, celah keamanan di jaringan pasokan ML tidak hanya ditemukan di platform MLOps.

LangChain, framework open-source untuk pengembangan AI Generatif, juga memiliki celah keamanan yang memungkinkan hacker untuk menjalankan kode jahat dan mengakses data sensitif. Ask Astro, sebuah chatbot open-source, juga memiliki celah keamanan yang memungkinkan hacker untuk menyisipkan informasi jahat ke dalam chatbot, mengacaukan sistem, dan menyebabkan denial-of-service (DoS). Tidak hanya platform dan framework yang rentan, data pelatihan untuk model AI juga bisa disusupi kode jahat. Para peneliti dari University of Connecticut menemukan teknik baru yang disebut CodeBreaker, yang memungkinkan hacker untuk menyisipkan kode jahat ke dalam data pelatihan model AI.

Teknik CodeBreaker sangat berbahaya karena bisa menipu model AI untuk menghasilkan kode yang rentan. Model AI yang dilatih dengan data yang terkontaminasi bisa menghasilkan kode yang berbahaya dan menyebabkan masalah besar. Ancaman keamanan di jaringan pasokan ML bukan sekadar cerita di film. Ini adalah masalah nyata yang bisa mengancam keamanan data dan sistem AI di seluruh dunia. Para pengembang dan pengguna platform ML harus lebih waspada terhadap ancaman keamanan ini. Menerapkan praktik keamanan yang baik, menggunakan alat keamanan yang canggih, dan selalu memperbarui sistem dengan patch keamanan terbaru adalah langkah penting untuk mencegah serangan.

Perkembangan teknologi AI yang pesat memang mengagumkan, namun harus diiringi dengan langkah-langkah keamanan yang kuat. Jika kita tidak berhati-hati, bahaya mengintai di balik kecanggihan teknologi AI. Serangan cyber bisa menghancurkan sistem AI yang sedang berkembang, dan merugikan banyak orang. Platform AI dan model ML dipenuhi celah keamanan. Ini merupakan masalah serius yang tidak dihiraukan oleh para pengembang, dan membuat para pengguna AI sangat rentan terhadap serangan jahat.

Sistem AI yang seharusnya meningkatkan efisiensi dan kemudahan, malah menjadi senjata berbahaya di tangan hacker. Tidak ada jaminan keamanan di dunia AI, karena para pengembang terlalu fokus pada fitur dan performa, tanpa mempertimbangkan risiko keamanan. Ancaman keamanan di jaringan pasokan ML sangat nyata dan harus diwaspadai oleh semua orang. Perusahaan dan pengguna AI harus selalu berhati-hati dan mengambil langkah-langkah keamanan yang tepat untuk melindungi sistem AI mereka. Kesadaran dan tindakan proaktif adalah kunci untuk menjaga keamanan di dunia AI yang berkembang pesat.