Hati-hati dengan Pacar AI, Bisa Curi Data dan Hati kamu



TL;DR
  • Pacar AI bisa curi data dan hati kamu.
  • Pacar AI tidak jelas cara kerja dan tujuannya.
  • Pacar AI bisa berbahaya untuk kesehatan mental kamu.
Hati-hati dengan Pacar AI, Bisa Curi Data dan Hati kamu - credit: readwrite - pibitek.biz - Risiko

credit: readwrite


336-280

pibitek.biz - Apa kamu sedang kesepian? Kalau iya, mungkin kamu harus berpikir dua kali sebelum menghabiskan waktu dengan pacar AI atau kekasih virtual. Mereka bisa jadi tidak bisa dipercaya. Itu karena chatbot AI baru yang ahli dalam percakapan romantis dengan pengguna termasuk yang "terburuk" untuk privasi.

Perusahaan aplikasi di balik LLM ini tidak menghormati privasi pengguna atau memberi tahu pengguna tentang cara kerja bot ini. Laporan "Privacy Not Included" terbaru dari Mozilla Foundation menemukan bahwa bot ini menimbulkan risiko privasi besar karena sifat konten yang diberikan oleh pengguna. Seperti halnya hubungan romantis, berbagi rahasia dan informasi sensitif adalah bagian biasa dari interaksi.

Namun, bot ini bergantung pada informasi itu. Banyak bot AI yang dipasarkan sebagai "belahan jiwa" atau "teman empati" dirancang untuk mengajukan pertanyaan yang mengintip yang mengharuskan kamu memberikan detail pribadi. Misalnya, kesehatan seksual atau asupan obatmu.

Semua itu bisa dikumpulkan oleh perusahaan di balik bot ini. Peneliti di *Privacy Not Included Misha Rykov berkata: "Secara jujur, pacar AI bukan temanmu. Meskipun mereka dipasarkan sebagai sesuatu yang akan meningkatkan kesehatan mental dan kesejahteraanmu, mereka ahli dalam memberikan ketergantungan, kesepian, dan toksisitas, sambil mengorek sebanyak mungkin data darimu".

Informasi tentang cara kerja bot ini masih tidak jelas, terutama seputar bagaimana "kepribadian" mereka terbentuk, bagaimana model AI dilatih, apa prosedur yang ada untuk mencegah konten berbahaya diberikan kepada pengguna, dan apakah individu bisa menolak untuk menggunakan percakapan mereka untuk melatih model AI ini. Sudah ada bukti pengguna melaporkan perlakuan buruk dan rasa sakit emosional. Misalnya, perusahaan teman AI Replika menghapus fitur peran erotis yang sebelumnya menjadi faktor besar dalam hubungan pengguna dengan avatar yang dibuatnya.

Contoh lain termasuk chatbot Chai yang dilaporkan mendorong seorang pria untuk mengakhiri hidupnya dan chatbot Replika AI lainnya yang menyarankan seorang pria untuk mencoba membunuh Ratu.

Beberapa perusahaan yang menawarkan chatbot romantis ini menetapkan dalam syarat dan ketentuan mereka bahwa mereka tidak bertanggung jawab atas apa yang mungkin dikatakan chatbot atau reaksi kamu. Sebuah contoh diambil dari Syarat Layanan Talkie Soulful AI: "Kamu dengan tegas memahami dan setuju bahwa Talkie tidak akan bertanggung jawab atas kerugian tidak langsung, insidental, khusus, kerugian akibat hilangnya keuntungan termasuk tetapi tidak terbatas pada, kerugian akibat hilangnya niat baik, penggunaan, data atau kerugian tidak berwujud lainnya (bahkan jika perusahaan telah diberi tahu kemungkinan kerugian tersebut), baik berdasarkan kontrak, gugatan, kelalaian, tanggung jawab ketat atau lainnya yang diakibatkan oleh: penggunaan ketidakmampuan menggunakan layanan".