- Hacker mengeksploitasi Copilot buat nyuri data sensitif pengguna.
- Teknik ASCII Smuggling digunakan oleh hacker untuk mengelabui keamanan Copilot.
- Microsoft memperingatkan perusahaan buat ngecek keamanan Copilot dari serangan hacker.
pibitek.biz -Microsoft akhirnya ngebenerin lubang keamanan di Copilot, fitur canggih di Microsoft 365 yang bisa ngebuat tulisan dan ngerjain tugas-tugas. Lubang keamanan ini ternyata bisa dijadiin jalan pintas buat nyuri data sensitif milik pengguna. Gimana sih caranya? Ternyata, ada teknik yang dinamain ASCII Smuggling, cara nge-hack yang cukup nyeleneh. Teknik ini ngemanfaatin karakter Unicode yang mirip banget sama ASCII, tapi gak kelihatan di layar. Seriusan, karakter-karakter ini kayak hantu, invisible! Nah, si hacker bisa nge-manipulasi Copilot buat nge-render data yang gak kelihatan ini.
2 – Fitur Canvas ChatGPT Tampilkan Perubahan Teks 2 – Fitur Canvas ChatGPT Tampilkan Perubahan Teks
3 – OSCAL TIGER 13: Ponsel Pintar dengan Kamera AI nan Hebat 3 – OSCAL TIGER 13: Ponsel Pintar dengan Kamera AI nan Hebat
Data ini kemudian disembunyikan di link-link yang bisa diklik. Jadi, si pengguna yang gak curiga, bakal ngeklik link yang keliatannya aman, tapi gak sadar kalo link itu ngirim data ke server hacker. Selain itu, hacker juga bisa nge-hack Copilot buat ngambil data dari email, termasuk kode autentikasi dua faktor. Data ini bisa dicuri dan dikirim ke server hacker tanpa diketahui korban. Bayangin aja, kode OTP yang biasanya dijamin aman, ternyata bisa dicuri lewat Copilot! Microsoft, yang udah tau tentang lubang keamanan ini sejak Januari 2024, akhirnya ngeluarin update buat ngebenerin masalah ini.
Tapi, ternyata masih ada ancaman lain yang mengintai Copilot. Ternyata, hacker bisa ngerjain Copilot buat ngasih jawaban yang salah, ngambil data pribadi, dan ngelewatin sistem keamanan. Semua ini bisa dilakukan lewat teknik canggih yang dinamain "RAG poisoning" dan "indirect prompt injection". Gak cuma itu, hacker juga bisa nge-hack Copilot buat ngebuat phishing page, ngelakuin spear phishing, dan nyuri data dari Copilot yang gak dilindungi password. Ini semua menunjukan bahwa AI kayak Copilot punya risiko keamanan yang harus ditanggulangi dengan serius.
Microsoft sendiri udah ngasih peringatan buat perusahaan-perusahaan untuk ngecek lagi keamanan Copilot dan ngaktifin fitur keamanan tambahan, seperti Data Loss Prevention, buat ngehindarin kebocoran data. Kasus ini ngingetin kita semua bahwa keamanan AI itu penting banget. Kita harus teliti dan waspada, karena hacker selalu cari celah buat nge-hack sistem-sistem canggih seperti AI.