LinkedIn: Kesalahan AI adalah Tanggung Jawab Pengguna



LinkedIn: Kesalahan AI adalah Tanggung Jawab Pengguna - the image via: theregister - pibitek.biz - Microsoft

the image via: theregister


336-280
TL;DR
  • LinkedIn memperbarui Perjanjian Pengguna pada bulan November 2024, yang menyertakan peringatan penting tentang kemungkinan konten AI yang dihasilkan oleh platform mungkin tidak akurat atau menyesatkan.
  • LinkedIn menyerahkan tanggung jawab atas konten yang dihasilkan AI kepada pengguna, yang dianggap tidak adil dan berpotensi merusak reputasi platform tersebut.
  • LinkedIn harus bertanggung jawab atas akurasi konten yang dihasilkan oleh alat AI mereka sendiri, dengan mengembangkan proses verifikasi yang lebih kuat dan memastikan bahwa pengguna diberi alat yang tepat untuk mengidentifikasi dan memperbaiki kesalahan.

pibitek.biz -LinkedIn, platform jejaring sosial profesional milik Microsoft, bersiap untuk memperbarui Perjanjian Pengguna pada bulan November 2024. Perjanjian baru tersebut menyertakan peringatan penting kepada pengguna tentang kemungkinan konten AI yang dihasilkan oleh platform mungkin tidak akurat atau menyesatkan. LinkedIn mengikuti jejak perusahaan induknya, Microsoft, yang baru-baru ini merevisi Perjanjian Layanannya untuk menegaskan bahwa Assistive AI tidak boleh diandalkan. Namun, LinkedIn melangkah lebih jauh dalam menyingkirkan tanggung jawab dengan menyatakan bahwa pengguna bertanggung jawab atas informasi yang salah yang dimasukkan oleh alat AI-nya sendiri.

Perjanjian Pengguna baru LinkedIn menyatakan bahwa pengguna yang menggunakan layanan LinkedIn mungkin berinteraksi dengan fitur yang mengotomatiskan pembuatan konten. Konten yang dihasilkan oleh fitur ini bisa saja tidak akurat, tidak lengkap, terlambat, menyesatkan, atau tidak sesuai dengan tujuan pengguna. LinkedIn secara tegas menyerukan kepada pengguna untuk meninjau dan mengedit konten yang dihasilkan sebelum membagikannya kepada orang lain. Platform ini menekankan bahwa pengguna bertanggung jawab untuk memastikan konten yang mereka bagikan mematuhi Kebijakan Komunitas Profesional LinkedIn, termasuk larangan berbagi informasi yang menyesatkan.

Dengan kata lain, LinkedIn secara terbuka mengakui bahwa alat AI-nya memiliki potensi untuk menghasilkan informasi yang tidak akurat, tetapi tidak bertanggung jawab atas konsekuensi dari informasi yang tidak akurat tersebut. Tanggung jawab sepenuhnya dibebankan kepada pengguna untuk memverifikasi dan mengoreksi kesalahan sebelum menyebarkannya. Ironisnya, Kebijakan Komunitas Profesional LinkedIn sendiri mengharuskan pengguna untuk berbagi informasi yang "nyata dan otentik", sementara platform itu sendiri tampaknya tidak menerapkan standar yang sama untuk alat AI-nya.

Ketika ditanya tentang kebijakan yang tampaknya menjadikan pengguna bertanggung jawab atas konten yang dihasilkan AI yang melanggar kebijakan, juru bicara LinkedIn memilih untuk menjawab pertanyaan lain. Juru bicara tersebut menyatakan bahwa LinkedIn percaya anggota memiliki hak untuk mengendalikan data mereka sendiri, itulah mengapa mereka menyediakan opsi untuk menolak penggunaan data untuk melatih model AI. Juru bicara LinkedIn juga menekankan bahwa LinkedIn telah lama menggunakan bentuk otomatisasi dalam produknya dan selalu transparan tentang penggunaan data pengguna.

Mereka mengakui bahwa banyak pengguna mencari bantuan untuk menulis resume, merangkum profil LinkedIn, atau membuat pesan kepada perekrut, dan alat AI LinkedIn dirancang untuk memberikan bantuan tersebut. Perubahan Perjanjian Pengguna LinkedIn terjadi sekitar waktu yang sama ketika platform tersebut mengumumkan bahwa mereka telah mulai mengumpulkan postingan pengguna untuk melatih model AI tanpa persetujuan sebelumnya. Langkah ini menimbulkan kontroversi, terutama di Inggris, di mana Kantor Komisaris Informasi (ICO) berhasil memberikan keringanan bagi pengguna di Inggris untuk tidak memasukkan data mereka dalam pelatihan model AI.

Akibatnya, LinkedIn mengumumkan bahwa mereka tidak akan mengaktifkan pelatihan AI pada data anggota dari Wilayah Ekonomi Eropa, Swiss, dan Inggris hingga pemberitahuan lebih lanjut. Di Amerika Serikat, pengguna LinkedIn harus secara aktif mencari pengaturan privasi yang tepat untuk menolak pelatihan AI. Konsekuensi pelanggaran kebijakan LinkedIn bervariasi tergantung pada tingkat pelanggaran. Sanksi bisa berupa pembatasan visibilitas konten, pelabelan konten, atau penghapusan konten. Pengguna yang melanggar kebijakan berulang kali dapat terkena suspensi akun, sementara pelanggaran yang paling serius dapat mengakibatkan penghapusan akun secara permanen.

LinkedIn belum secara spesifik menyebutkan fitur mana yang mungkin menghasilkan konten AI yang meragukan. Namun, promosi sebelumnya tentang layanan yang ditingkatkan AI mungkin dapat memberikan petunjuk. LinkedIn menggunakan pesan AI yang dihasilkan dalam LinkedIn Recruiter untuk membuat pesan InMail yang dipersonalisasi berdasarkan profil kandidat. LinkedIn juga memungkinkan perekrut untuk meningkatkan deskripsi pekerjaan dengan AI. Selain itu, platform ini menyediakan bantuan penulisan AI untuk bagian "Tentang" dan "Judul" pengguna.

LinkedIn juga berusaha mendorong pengguna untuk berkontribusi pada "Artikel Kolaboratif" secara gratis dengan menyajikan pertanyaan yang dihasilkan AI. Salespeople juga memiliki akses ke pencarian yang dibantu AI dan Account IQ dari LinkedIn, yang membantu mereka menemukan prospek penjualan. Kit Walsh, seorang pengacara senior di Electronic Frontier Foundation, memberikan komentar tentang penolakan tanggung jawab LinkedIn atas alat AI Generatifnya. Walsh menyatakan bahwa bagus melihat LinkedIn mengakui bahwa model bahasa rentan terhadap pembuatan kebohongan dan pengulangan informasi yang salah.

Walsh menekankan bahwa kenyataan bahwa model bahasa ini bukan sumber kebenaran yang dapat diandalkan harus diutamakan dalam pengalaman pengguna agar orang tidak salah mengira model bahasa tersebut sebagai sumber informasi yang akurat. Walsh juga menyatakan bahwa secara umum, orang yang memilih untuk mempublikasikan pernyataan tertentu bertanggung jawab atas isinya. Namun, Walsh mengakui adanya pertentangan antara klaim besar tentang kekuatan model bahasa dan bahasa dalam Perjanjian Pengguna yang melindungi perusahaan dari konsekuensi ketidakakuratan alat mereka.

Ketidakakuratan konten yang dihasilkan AI merupakan masalah serius, terutama dalam konteks profesional seperti LinkedIn. Platform ini dirancang untuk menghubungkan para profesional dan memfasilitasi pertukaran informasi yang akurat. Namun, dengan menyerahkan tanggung jawab atas konten yang dihasilkan AI kepada pengguna, LinkedIn mengabaikan potensinya untuk menyebarkan informasi yang menyesatkan dan merugikan. Dalam upaya untuk menghadirkan pengalaman pengguna yang lebih baik, LinkedIn seharusnya mempertimbangkan untuk mengambil langkah-langkah yang lebih proaktif untuk memastikan keakuratan konten yang dihasilkan AI.

Hal ini dapat dilakukan dengan mengembangkan algoritma yang lebih canggih, meningkatkan mekanisme verifikasi fakta, atau menyediakan alat yang lebih kuat bagi pengguna untuk mengedit konten yang dihasilkan AI. Sebagai platform yang mengandalkan kepercayaan dan kredibilitas, LinkedIn harus mendekati penggunaan AI dengan sangat hati-hati. Menyerahkan tanggung jawab sepenuhnya kepada pengguna tanpa memberikan alat yang memadai untuk memverifikasi keakuratan konten yang dihasilkan AI tidak hanya tidak adil, tetapi juga berpotensi merusak reputasi platform tersebut.

Jika LinkedIn serius dalam menciptakan lingkungan profesional yang aman dan terpercaya, mereka perlu melampaui sekadar memberi peringatan kepada pengguna tentang potensi ketidakakuratan konten AI. Mereka harus bertanggung jawab atas akurasi konten yang dihasilkan oleh alat AI mereka sendiri, dengan mengembangkan proses verifikasi yang lebih kuat dan memastikan bahwa pengguna diberi alat yang tepat untuk mengidentifikasi dan memperbaiki kesalahan. Pada akhirnya, tanggung jawab untuk berbagi informasi yang akurat dan otentik tetap berada pada pengguna.