ChatGPT Dikabarkan Bocor dan Umumkan Percakapan Pribadi Pengguna



TL;DR
  • ChatGPT bocor dan mengumumkan percakapan pribadi pengguna.
  • Percakapan yang bocor mencakup kredensial login dan detail pribadi.
  • OpenAI sedang menyelidiki masalah kebocoran ini.
ChatGPT Dikabarkan Bocor dan Umumkan Percakapan Pribadi Pengguna - credit: arstechnica - pibitek.biz - Web

credit: arstechnica


336-280

pibitek.biz - Pembaca Ars Technica melaporkan bahwa ChatGPT, sebuah asisten berbasis AI yang dikembangkan oleh OpenAI, diduga bocor dan mengumumkan percakapan pribadi pengguna yang mencakup kredensial login dan detail pribadi lainnya. Pembaca tersebut mengirimkan tangkapan layar yang menunjukkan dua percakapan yang mengandung beberapa pasangan username dan password yang terhubung dengan sistem dukungan yang digunakan oleh karyawan portal obat resep apotek. Dalam percakapan tersebut, seorang karyawan menggunakan chatbot AI untuk memecahkan masalah yang mereka temui saat menggunakan portal tersebut.

Kejadian ini menimbulkan kekhawatiran karena selain bahasa yang jujur dan kredensial yang terungkap, percakapan yang bocor juga mencakup nama aplikasi yang sedang diperbaiki oleh karyawan dan nomor toko di mana masalah terjadi. Percakapan tersebut mengumumkan lebih dari yang ditunjukkan dalam tangkapan layar yang disensor. Sebuah tautan yang disertakan oleh pembaca Ars menunjukkan percakapan chat secara keseluruhan, dan URL tersebut mengumumkan pasangan kredensial tambahan.

Kejadian ini terjadi pada hari Senin pagi setelah pembaca Chase Whiteside menggunakan ChatGPT untuk pertanyaan yang tidak berhubungan. Whiteside mengatakan bahwa ketika ia kembali untuk mengakses ChatGPT beberapa saat kemudian, ia melihat percakapan tambahan yang tidak ada saat ia menggunakan ChatGPT semalam. Tidak ada pertanyaan yang diajukan, percakapan tersebut muncul secara otomatis di riwayatnya, dan Whiteside yakin bahwa percakapan tersebut bukan dari dirinya dan bukan dari pengguna yang sama.

Percakapan lain yang bocor kepada Whiteside meliputi nama presentasi yang sedang dikerjakan seseorang, rincian proposal penelitian yang belum dipublikasikan, dan skrip yang menggunakan bahasa pemrograman PHP. Pengguna untuk setiap percakapan yang bocor tampaknya berbeda dan tidak berhubungan satu sama lain. Percakapan yang melibatkan portal resep obat mencantumkan tahun 2020, sedangkan tanggal tidak muncul dalam percakapan lainnya.

Kejadian ini, dan kejadian serupa lainnya, menunjukkan pentingnya menghapus detail pribadi dari pertanyaan yang diajukan kepada ChatGPT dan layanan AI lainnya setiap kali memungkinkan. Pada Maret lalu, OpenAI menonaktifkan ChatGPT setelah sebuah bug menyebabkan situs tersebut menampilkan judul dari riwayat percakapan pengguna lain kepada pengguna yang tidak terkait. Pada bulan November, para peneliti mempublikasikan sebuah makalah yang melaporkan bagaimana mereka menggunakan pertanyaan untuk membujuk ChatGPT mengumumkan alamat email, nomor telepon dan fax, alamat fisik, dan data pribadi lainnya yang terdapat dalam materi yang digunakan untuk melatih LLM ChatGPT.

Kekhawatiran tentang kemungkinan kebocoran data properti atau pribadi telah mendorong beberapa perusahaan, termasuk Apple, untuk membatasi penggunaan ChatGPT dan situs serupa oleh karyawan mereka. Seperti yang dijelaskan dalam sebuah artikel pada Desember, pengalaman seperti ini sudah ada sejak awal internet. Sebagai tanggapan terhadap laporan ini, perwakilan OpenAI mengatakan bahwa perusahaan sedang menyelidiki masalah ini.