AI di Tempat Kerja: Tantangan Etika dan Legal



AI di Tempat Kerja: Tantangan Etika dan Legal - the image via: jdsupra - pibitek.biz - Software

the image via: jdsupra


336-280
TL;DR
  • Penggunaan AI dalam dunia kerja meningkatkan efisiensi dan produktivitas, namun juga menimbulkan tantangan etika dan legal yang harus diatasi.
  • Penggunaan AI dalam perekrutan dan manajemen sumber daya manusia dapat menimbulkan bias dan diskriminasi, sehingga perlu diatur dengan pedoman dan regulasi yang jelas.
  • Perusahaan harus memastikan bahwa penggunaan AI dalam fungsi ketenagakerjaan sesuai dengan hukum federal, negara bagian, dan lokal, serta pedoman yang berlaku untuk bisnis dan karyawan.

pibitek.biz -Penerapan AI semakin meluas dalam berbagai aspek kehidupan, termasuk dunia kerja. Perusahaan-perusahaan, baik besar maupun kecil, merasakan tekanan untuk meningkatkan efisiensi dan produktivitas, yang mendorong adopsi teknologi AI. Survei menunjukkan bahwa lebih dari sepertiga perusahaan di Amerika Serikat telah menggunakan AI untuk berbagai tujuan, mulai dari menyusun deskripsi pekerjaan hingga melakukan penilaian karyawan. Perusahaan-perusahaan yang belum menggunakan AI juga mulai mempertimbangkan penerapannya.

Tren ini menunjukkan bahwa AI telah menjadi bagian integral dari dunia kerja modern. Penggunaan AI menawarkan potensi besar untuk meningkatkan efisiensi dan efektivitas dalam berbagai fungsi bisnis. Namun, perlu diingat bahwa adopsi teknologi ini membawa sejumlah tantangan etika dan legal yang harus diatasi. Meskipun belum ada regulasi federal yang komprehensif untuk mengatur penggunaan AI, pemerintah Amerika Serikat telah menunjukkan keprihatinan terhadap perkembangan ini. Pada tahun 2023, Presiden Biden menerbitkan Dekrit Eksekutif 14110 yang menetapkan delapan prinsip dan prioritas untuk memandu penggunaan AI secara aman, terjamin, dan terpercaya.

Dekrit ini menekankan pentingnya keamanan, privasi, dan keadilan dalam penggunaan AI, serta mendorong inovasi dan persaingan di sektor AI baik di dalam negeri maupun di luar negeri. Pemerintah Amerika Serikat juga berencana untuk merumuskan legislasi federal yang komprehensif mengenai AI, dengan melibatkan berbagai pihak untuk mencapai konsensus. Selain upaya federal, sejumlah negara bagian dan daerah telah mengambil inisiatif untuk mengatur penggunaan AI. Colorado menjadi negara bagian pertama yang mengesahkan undang-undang komprehensif mengenai AI pada tahun 2024, dengan aturan yang mulai berlaku pada tahun 2026.

Banyak negara bagian lain sedang mempertimbangkan legislasi serupa untuk mengatur penggunaan AI. Lebih dari 45 negara bagian telah mengajukan undang-undang mengenai AI, dengan total lebih dari 600 rancangan undang-undang yang diajukan. California saja telah mengajukan lebih dari 30 rancangan undang-undang mengenai AI dalam sesi legislatif terakhir. Tidak hanya legislatif, beberapa lembaga pengatur federal di Amerika Serikat juga telah mengeluarkan pedoman mengenai penggunaan AI. Departemen Tenaga Kerja, Departemen Kehakiman, Komisi Kesempatan Kerja yang Sama, Dewan Hubungan Industrial Nasional, Komisi Perdagangan Federal, dan Biro Perlindungan Keuangan Konsumen telah mengeluarkan panduan tentang penggunaan AI di berbagai sektor.

Dalam konteks perekrutan dan manajemen sumber daya manusia, penggunaan AI menimbulkan berbagai masalah. AI digunakan untuk membantu dalam proses perekrutan, pemutusan hubungan kerja, evaluasi kinerja, pengembangan rencana peningkatan kinerja, dan penyusunan kebijakan, deskripsi pekerjaan, dan tugas. Penggunaan AI dalam perekrutan semakin meluas, dengan 80% perusahaan di Amerika Serikat dan semua perusahaan Fortune 500 menggunakan AI dalam pengambilan keputusan perekrutan. Namun, penggunaan AI dalam perekrutan menimbulkan potensi bias, yang berdampak buruk bagi calon karyawan.

Studi menunjukkan bahwa jutaan calon karyawan ditolak dalam proses seleksi karena penggunaan program AI. AI yang dirancang untuk membantu dalam proses seleksi ternyata dapat memperkuat bias yang ada dalam data pelatihan, menghasilkan hasil yang diskriminatif. Penggunaan AI dalam perekrutan menimbulkan kekhawatiran bahwa tools ini dapat menimbulkan dampak yang tidak merata pada kelompok tertentu. Undang-undang Hak Sipil Tahun 1964 (Title VII) melarang pengusaha menggunakan tes atau prosedur seleksi yang berdampak buruk pada kelompok yang dilindungi, kecuali jika pembatasan tersebut terkait pekerjaan dan merupakan kebutuhan bisnis.

Contohnya, Amazon pernah mengembangkan software AI untuk menyaring aplikasi pekerjaan. Software tersebut dilatih dengan menggunakan data dari aplikasi dan karyawan selama sepuluh tahun. Namun, Amazon menemukan bahwa software tersebut memiliki bias gender. Karena software tersebut dilatih dengan data yang didominasi oleh pelamar pria, software tersebut cenderung memberikan peringkat yang lebih tinggi kepada pelamar pria. Amazon bahkan menemukan bahwa software tersebut memberikan penalti kepada aplikasi yang menyertakan kata "wanita", seperti "kapten tim sepak bola wanita".

Lulusan dari perguruan tinggi khusus wanita juga dikenai penalti. Software tersebut tidak pernah digunakan, dan tim yang mengembangkannya dibubarkan. Amazon menemukan bahwa bias dapat "diajarkan" kepada program AI. Kesadaran akan bias dalam data pelatihan penting untuk mencegah munculnya bias yang tidak diinginkan dalam hasil. Perusahaan lain juga menghadapi masalah serupa dengan penggunaan AI. Pada tahun 2023, iTutorGroup menghadapi gugatan diskriminasi usia di bawah Undang-undang Diskriminasi Usia dalam Ketenagakerjaan (ADEA) karena menggunakan software AI yang secara otomatis menolak pelamar wanita di atas usia 55 tahun dan pelamar pria di atas usia 60 tahun.

Perusahaan ini menyelesaikan gugatan tersebut dengan membayar denda sebesar US$365.000, dan setuju untuk memberikan pelatihan kepada staf perekrutan dan menerapkan kebijakan anti-diskriminasi yang lebih kuat. Kasus lain yang sedang berlangsung di pengadilan federal California, Mobley v. Workday, Inc., juga menunjukkan potensi bias dalam penggunaan AI dalam perekrutan. Plaintiff dalam kasus ini mengklaim bahwa Workday, perusahaan yang menyediakan alat AI untuk menyaring aplikasi pekerjaan, telah menyebabkan dirinya ditolak dari lebih dari 100 pekerjaan karena alasan diskriminasi, yaitu usia, ras, dan/atau disabilitas.

Pengadilan belum memutuskan kasus ini, tetapi telah menolak mosi Workday untuk menolak gugatan tersebut. Hal ini menunjukkan bahwa vendor AI juga dapat dimintai pertanggungjawaban atas penggunaan alat AI mereka yang berpotensi diskriminatif. Penggunaan AI dalam pengambilan keputusan ketenagakerjaan yang semakin meluas dan potensi bias yang terkait dengannya, telah mendorong lembaga-lembaga federal untuk mengeluarkan pedoman mengenai penggunaan AI dalam fungsi sumber daya manusia. Komisi Kesempatan Kerja yang Sama (EEOC) telah mengeluarkan panduan mengenai bagaimana menghindari diskriminasi dalam penggunaan AI dalam fungsi sumber daya manusia, seperti perekrutan, pemutusan hubungan kerja, pemberian disiplin, dan penentuan tingkat gaji.

Departemen Kehakiman Amerika Serikat juga telah mengeluarkan pedoman mengenai penggunaan AI dan Undang-undang Penyandang Disabilitas Amerika (ADA). Kemitraan untuk Ketenagakerjaan dan Teknologi yang Dapat Diakses (PEAT), yang didanai oleh Departemen Tenaga Kerja, telah mengembangkan situs web AI & Inclusive Hiring Framework untuk membantu pengusaha dalam mengimplementasikan alat perekrutan yang didukung AI. Situs web ini memberikan sepuluh fokus area, seperti mengidentifikasi persyaratan hukum, bekerja dengan vendor, memastikan pengawasan manusia, dan mengelola insiden.

Situs web ini menekankan pentingnya untuk menggunakan AI sebagai bagian dari upaya progresif yang akan terus berkembang seiring waktu. Terlepas dari banyaknya vendor yang menyediakan dukungan AI untuk fungsi sumber daya manusia, pengusaha tidak dapat hanya mengandalkan vendor AI untuk melindungi mereka dari tuntutan hukum. Vendor AI yang menyediakan alat AI tetapi tidak membuat keputusan ketenagakerjaan juga dapat dimintai pertanggungjawaban. Pedoman lembaga federal menegaskan bahwa hukum ketenagakerjaan berlaku saat menggunakan AI dan memperingatkan pengusaha bahwa penggunaan AI yang tidak tepat dan tidak diatur dapat melanggar hukum Amerika Serikat.

Beberapa negara bagian dan kota juga telah mulai menerapkan undang-undang yang secara khusus mengatur penggunaan AI dalam sumber daya manusia. New York City baru-baru ini mulai menerapkan hukum Alat Pengambilan Keputusan Ketenagakerjaan Otomatis (AEDT) yang mewajibkan pengusaha untuk menyelesaikan audit bias dari AEDT yang digunakan untuk menilai calon karyawan untuk perekrutan dan karyawan untuk promosi. Hukum ini juga mewajibkan semua calon karyawan yang tinggal di New York City untuk menerima pemberitahuan bahwa pengusaha menggunakan AEDT.

Maryland melarang penggunaan pengenalan wajah selama wawancara kerja kecuali pelamar menyetujui penggunaannya sebelumnya. Amandemen terbaru terhadap Undang-undang Hak Asasi Manusia Illinois menambahkan persyaratan serupa yang melampaui pemberitahuan kepada pelamar kerja tetapi juga kepada karyawan ketika AI digunakan dalam fungsi ketenagakerjaan lainnya, seperti promosi atau pemutusan hubungan kerja. Banyak negara bagian kemungkinan akan mengikuti dengan aturan yang bervariasi yang mengatur penggunaan AI dalam fungsi ketenagakerjaan.

Dengan kurangnya pedoman pemerintah yang komprehensif saat ini, sekaranglah saatnya untuk memastikan bahwa perusahaan kamu terlindungi dari penggunaan AI yang tidak tepat, bahkan ilegal. Kebijakan yang menyeluruh, spesifik untuk setiap negara bagian, yang berlaku untuk semua karyawan diperlukan untuk melindungi perusahaan kamu dari gugatan individu dan gugatan kelompok serta tindakan administratif, seperti tuduhan diskriminasi. Lanskap AI akan terus berubah dengan cepat, baik dalam hal penggunaan AI maupun regulasi penggunaan tersebut.

Penting untuk memastikan bahwa perusahaan kamu tetap mengikuti hukum federal, negara bagian, dan lokal serta pedoman yang berlaku untuk bisnis kamu dan karyawan kamu. Banyak peraturan yang berlaku sekarang, dan masih banyak lagi yang akan datang.