Belum Sempurna: OpenAI Rilis Perbaikan Bocor Data ChatGPT



TL;DR
  • OpenAI merilis perbaikan kebocoran data pengguna di ChatGPT.
  • Kelemahan keamanan masih ada meskipun ada perbaikan dari OpenAI.
  • ChatGPT masih bisa mengirimkan sedikit info yang bisa bocor.
Belum Sempurna: OpenAI Rilis Perbaikan Bocor Data ChatGPT - photo source: mashable - pibitek.biz - User

photo source: mashable


336-280

pibitek.biz -OpenAI telah merilis ChatGPT pada tahun lalu, dan sejak itu telah terjadi beberapa kesempatan di mana kelemahan dalam chatbot AI tersebut dapat dimanfaatkan atau dimanipulasi oleh pihak yang tidak bertanggung jawab untuk mengakses data sensitif atau pribadi. Dan contoh terbaru ini menunjukkan bahwa bahkan setelah patch keamanan dirilis, masalah masih bisa tetap ada. Menurut laporan dari Bleeping Computer, OpenAI baru-baru ini merilis perbaikan untuk masalah di mana ChatGPT bisa bocorkan data pengguna ke pihak ketiga yang tidak sah.

Data ini mencakup percakapan pengguna dengan ChatGPT dan metadata seperti ID pengguna dan informasi sesi. Namun, menurut peneliti keamanan Johann Rehberger, yang awalnya menemukan kerentanan dan menjelaskan bagaimana cara kerjanya, masih ada lubang keamanan yang besar dalam perbaikan OpenAI. Pada dasarnya, kelemahan keamanan masih ada.

Rehberger dapat memanfaatkan fitur GPT kustom OpenAI yang baru dirilis dan mengeluarkan data dari ChatGPT. Ini adalah temuan yang signifikan karena GPT kustom dipasarkan sebagai aplikasi AI yang mirip dengan bagaimana iPhone merevolusi aplikasi seluler dengan App Store. Jika Rehberger bisa membuat GPT kustom ini, tampaknya pihak yang tidak bertanggung jawab juga bisa segera menemukan kelemahan ini dan membuat GPT kustom untuk mencuri data dari target mereka.

Rehberger mengatakan bahwa dia pertama kali menghubungi OpenAI tentang "teknik eksfiltrasi data" ini pada bulan April. Dia menghubungi OpenAI sekali lagi pada bulan November untuk melaporkan secara tepat bagaimana dia bisa membuat GPT kustom dan melaksanakan proses tersebut. Pada hari Rabu, Rehberger memposting pembaruan di situs webnya.

OpenAI telah memperbaiki kerentanan bocor. "Perbaikannya tidak sempurna, tetapi melangkah ke arah yang benar", jelas Rehberger. Alasan perbaikan ini tidak sempurna adalah karena ChatGPT masih bocor data melalui kerentanan yang ditemukan oleh Rehberger.

ChatGPT masih bisa ditipu untuk mengirimkan data.

"Beberapa tes cepat menunjukkan bahwa potongan info bisa bocor", tulis Rehberger, lebih lanjut menjelaskan bahwa "hanya sedikit info yang bisa bocor dengan cara ini, lambat, dan lebih terlihat oleh pengguna". Terlepas dari masalah yang tersisa, Rehberger mengatakan ini adalah "langkah ke arah yang benar pastinya".