LinkedIn Hentikan Pelatihan AI Karena Peringatan Privasi Serius



LinkedIn Hentikan Pelatihan AI Karena Peringatan Privasi Serius - credit: thehackernews - pibitek.biz - Dataset

credit: thehackernews


336-280
TL;DR
  • LinkedIn stop pelatihan AI di Inggris karena masalah privasi.
  • ICO khawatir data user disalahgunakan oleh LinkedIn untuk ngelatih AI.
  • LinkedIn akan ngejaga data user dengan aman dan ngasih tau kebijakan privasi baru.

pibitek.biz -LinkedIn, platform sosial media profesional, tiba-tiba nge-stop pelatihan AI di Inggris karena ada masalah privasi. ICO, badan pengawas privasi di Inggris, ngasih peringatan ke LinkedIn soal data user yang mereka pake buat latihan AI. ICO bilang, LinkedIn gak boleh latihan AI pake data user di Inggris tanpa izin jelas. ICO khawatir, data user di Inggris bisa disalahgunakan oleh LinkedIn buat ngelatih AI mereka. Stephen Almond, petinggi ICO, bilang kalo mereka seneng LinkedIn akhirnya ngertiin masalah ini dan nge-stop pelatihan AI sementara waktu.

ICO bakal awasin LinkedIn dan Microsoft (perusahaan induk LinkedIn) buat mastiin mereka ngejaga data user dengan aman. Kabarnya, LinkedIn udah ngaku kalo mereka ngelatih AI pake data user tanpa izin, tapi baru nge-update kebijakan privasi mereka di tanggal 18 September 2024. LinkedIn bilang kalo mereka gak akan ngelatih AI pake data user di Inggris, Swiss, dan negara-negara di Uni Eropa sampai ada pemberitahuan selanjutnya. LinkedIn juga ngasih tau kalo mereka berusaha nge-minimalisir data pribadi yang mereka pake buat latihan AI, termasuk nge-hapus data pribadi dari dataset.

User yang ada di luar Eropa bisa nolak data mereka dipake buat latihan AI. Mereka bisa ngatur sendiri di bagian pengaturan privasi akun LinkedIn mereka. Kalo user nolak, LinkedIn gak akan ngelatih AI pake data mereka lagi, tapi data yang udah dipake buat latihan AI sebelumnya gak bisa dihapus. Keputusan LinkedIn ini muncul setelah Meta ngaku kalo mereka ngambil data user yang gak private buat latihan AI sejak tahun 2007. Meta sekarang udah ngelanjutin lagi pelatihan AI pake data user di Inggris. Sebelumnya, Zoom juga ngebatalin rencana mereka buat pake data user buat latihan AI setelah banyak yang protes.

Masalah privasi ini jadi makin serius karena banyak perusahaan yang pake data user buat ngelatih AI. FTC, badan pengawas di Amerika Serikat, ngasih tau kalo banyak platform media sosial dan streaming video yang ngelacak user secara masif tanpa kasih keamanan privasi yang cukup, terutama buat anak-anak. Data user yang dikumpulin bisa dijual ke perusahaan lain untuk di-monetize. FTC bilang kalo banyak perusahaan yang gak ngehapus data user setelah user minta akun mereka dihapus. Banyak orang yang khawatir kalo data user yang dipake buat latihan AI bisa disalahgunakan.

Contohnya, bisa buat nge-prediksi perilaku user, nge-target iklan secara spesifik, atau bahkan nge-manipulasi opini user. Masalah privasi ini masih jadi topik yang hangat diperdebatkan, dan belum ada solusi yang ideal. Ini adalah isu yang kompleks dan banyak sekali pihak yang terlibat, termasuk perusahaan teknologi, pemerintah, dan user. Masih banyak tantangan yang harus dihadapi untuk mencapai keseimbangan antara kemajuan teknologi AI dengan privasi user.