- LinkedIn diam-diam menggunakan data pengguna untuk melatih AI tanpa pemberitahuan.
- LinkedIn akhirnya mengakui dan memperbarui kebijakan privasinya setelah ketahuan oleh media.
- Pengguna dapat memilih untuk menolak penggunaan data mereka untuk melatih AI, tapi hanya berlaku ke depan.
pibitek.biz -LinkedIn, platform jejaring sosial profesional yang terkenal, ketahuan lagi-lagi. Platform ini diam-diam memanfaatkan data dari penggunanya untuk melatih model AI miliknya. Waduh, ngga ada pemberitahuan sama sekali lho! Padahal, penggunaan data user untuk melatih AI ini sebenarnya sudah terjadi sejak lama. Tapi, LinkedIn baru menyadari kalau mereka lupa memperbarui kebijakan privasinya. Duh, telat banget ya? Pihak LinkedIn baru tergerak untuk meluruskan informasi setelah ketahuan oleh media. Mereka kemudian merilis pernyataan resmi dan memperbarui kebijakan privasinya, termasuk FAQ yang menjelaskan tentang penggunaan data user untuk melatih AI.
2 – AI Apple: Kekecewaan dan Keterlambatan 2 – AI Apple: Kekecewaan dan Keterlambatan
3 – Aplikasi ChatGPT untuk Windows: Kelebihan dan Kekurangan 3 – Aplikasi ChatGPT untuk Windows: Kelebihan dan Kekurangan
Dalam kebijakan baru ini, LinkedIn mengakui bahwa mereka secara otomatis mengumpulkan data dari para penggunanya untuk melatih AI. Data ini kemudian digunakan untuk berbagai fitur AI, seperti memberikan saran saat posting di LinkedIn. Tentu saja, para pengguna bisa memilih untuk menolak penggunaan data mereka untuk melatih AI. Namun, pilihan ini hanya berlaku ke depan. Artinya, data yang sudah dikumpulkan sebelumnya tetap akan digunakan untuk melatih AI. Shiva Nathan, bos dari perusahaan keamanan data Onymos, langsung nge-gas begitu mendengar kabar ini.
Dia menilai kalau aksi LinkedIn ini sangat mengkhawatirkan. "Data personal kita itu kan privasi, lho! Kok bisa gampang-gampangan diambil terus dipakai untuk melatih AI?" ungkap Nathan dengan nada kecewa. Menurut Nathan, perilaku LinkedIn ini membuat kepercayaan pengguna terhadap platform tersebut jadi goyah. Soalnya, LinkedIn secara diam-diam memanfaatkan data user untuk kepentingan sendiri tanpa persetujuan. "Perusahaan ini memang ngga cuma LinkedIn, sih", jelas Nathan. "Banyak banget aplikasi dan platform yang memanfaatkan data user untuk AI tanpa pemberitahuan". "Kita harus mengubah cara berpikir tentang pengumpulan data", tambah Nathan. "Pengguna ngga boleh dipaksa ngasih data kalau mereka mau pake layanan aplikasi tertentu. Ini bahaya banget!" Untungnya, LinkedIn masih punya sedikit rasa belas kasih. Pengguna bisa mengakses dan menghapus data pribadi mereka yang sudah dikumpulkan sebelumnya melalui fitur data access tools. Tapi, fitur ini hanya tersedia untuk sebagian fitur AI. Sejauh ini, Amerika Serikat belum punya undang-undang federal khusus yang mengatur tentang pengumpulan data untuk AI.
Hanya beberapa negara bagian yang punya aturan tentang privasi data user. Tapi, di negara-negara lain, seperti Uni Eropa, aturannya jauh lebih ketat. Di Uni Eropa, LinkedIn terpaksa menghentikan pengumpulan data untuk pelatihan AI di beberapa negara, termasuk Jerman, Inggris, dan Prancis. Ini karena aturan baru tentang AI di Uni Eropa, yang dikenal sebagai AI Act, mewajibkan perusahaan untuk transparan tentang penggunaan data user untuk AI. Aturan ini mewajibkan perusahaan untuk meminta izin secara eksplisit dari pengguna sebelum menggunakan data mereka untuk AI.
Ini artinya, pengguna punya hak untuk menolak penggunaan data mereka untuk melatih AI. "Uni Eropa memang terkenal galak dalam hal privasi data", kata Tarun Gangwani, seorang manager di perusahaan teknologi DataGrail. "Mereka ngga mau main-main sama privasi warga". Aturan privasi data yang ketat di Uni Eropa membuat LinkedIn terpaksa harus merubah strategi. Mereka harus lebih berhati-hati dalam mengolah data pengguna di wilayah tersebut. Di Inggris, badan pengawas privasi data, yaitu ICO, langsung turun tangan begitu tahu tentang penggunaan data user oleh LinkedIn.
ICO menuntut agar LinkedIn menghentikan pelatihan AI mereka dengan data user di Inggris. "Kita harus memastikan bahwa orang-orang merasa aman dan nyaman saat menggunakan AI", kata Stephen Almond, seorang petinggi di ICO. "Kepercayaan itu harus dibangun dari awal". Kejadian ini bukanlah yang pertama kalinya perusahaan teknologi ketahuan menggunakan data user untuk melatih AI tanpa persetujuan. Beberapa waktu lalu, platform komunikasi Zoom juga ketahuan hendak menggunakan data user untuk melatih AI.
Untungnya, para pengguna langsung protes dan Zoom akhirnya membatalkan rencananya. Startup Peloton juga kena batunya. Mereka dilaporkan menggunakan data chat dari customer service untuk melatih AI. Akibatnya, Peloton digugat oleh para pengguna karena dianggap melanggar privasi. "Perusahaan teknologi harus belajar dari kesalahan mereka", tegas Nathan. "Mereka harus lebih transparan dan terbuka tentang penggunaan data user". Nathan mengingatkan bahwa data user adalah hal yang sangat berharga. Jangan sampai data kita jadi bahan bakar bagi perusahaan teknologi tanpa kita sadari. "Kita harus lebih cerdas dan selektif dalam memilih platform teknologi yang kita gunakan", kata Nathan. "Kita harus memastikan bahwa platform tersebut menghargai privasi data kita".