- Polisi Amerika pakai AI nulis laporan polisi.
- AI bisa ngirit waktu, tapi khawatir salah ngerangkum.
- Ahli khawatir AI memperburuk diskriminasi dan ketidakadilan.
pibitek.biz -Kebayang enggak, kalau polisi pakai AI buat nulis laporan polisi? Iya, beneran! Di Amerika sana, beberapa kantor polisi lagi coba-coba pakai AI chatbot untuk ngerjain laporan polisi. Katanya sih, bisa ngirit waktu. Tapi, apa beneran aman? Contohnya, polisi di Oklahoma City udah pake AI chatbot bernama Draft One buat nulis laporan polisi. Caranya gampang, polisi tinggal rekam semua kejadian pake kamera badan, terus masukan rekamannya ke AI. Beres deh, laporan polisi langsung jadi dalam waktu 8 detik! Draft One ini bisa ngelakuin itu karena dibekali teknologi canggih dari OpenAI, sama kayak ChatGPT, yang bisa ngertiin dan ngerangkum audio.
2 – Serangan SIM-Swap: Akun SEC Diretas Secara Besar-Besaran 2 – Serangan SIM-Swap: Akun SEC Diretas Secara Besar-Besaran
3 – Bahaya AI: ChatGPT Digunakan untuk Kembangkan Malware 3 – Bahaya AI: ChatGPT Digunakan untuk Kembangkan Malware
Axon, perusahaan yang jual teknologi buat polisi dan militer, ngeluarin Draft One tahun ini. Katanya, AI ini bisa jadi "penguat tenaga" buat polisi, karena bisa ngebantu mereka ngerjain tugas lebih cepet. Axon juga ngaku udah ngatasi kelemahan AI yang suka ngarang-ngarang. Tapi, beneran aman gitu? Nah, masalahnya, Draft One ini baru dipake buat laporan polisi kasus-kasus ringan, kayak enggak ada tindak kekerasan. Soalnya, polisi di Oklahoma City khawatir AI bisa salah ngerangkum, apalagi kalo kasusnya serius.
Tapi, di beberapa kota lain, kayak Fort Collins dan Lafayette, polisi udah mulai pake Draft One buat semua kasus. Malah, ada kepala polisi yang ngomong kalo AI ini "super mantep". Tapi, ada juga yang ngerasa was-was. Seorang ahli hukum, Andrew Ferguson, ngomong kalo AI bisa bikin polisi jadi enggak teliti waktu nulis laporan. Katanya, karena gampang, polisi jadi males mikirin detail laporan. Kekhawatiran Ferguson ini masuk akal. Kalo AI dipake buat ngerjain tugas polisi, bisa-bisa terjadi diskriminasi.
Banyak banget bukti kalo AI malah memperparah masalah diskriminasi. Misal, ada perusahaan yang pake AI buat nyari pekerja baru, tapi malah jadi bias karena AI-nya dilatih pake data yang bias juga. Axon sih ngaku kalo Draft One udah punya "sistem pengaman" yang ketat. Semua laporan yang dibuat AI harus dicek lagi sama polisi, biar akurat dan bertanggung jawab. Tapi, tetap aja, manusia bisa salah, dan polisi juga bisa punya bias. Terus, masalahnya bukan cuma itu. Para ahli bahasa menemukan kalo AI besar kayak GPT-4 ternyata punya "racisme tersembunyi".
AI ini enggak bisa dilatih buat netralin bias bahasa, terutama bahasa minoritas, kayak Bahasa Afrika Amerika. Jadi, kalo ada orang kulit hitam yang ngomong pake Bahasa Afrika Amerika, AI bisa salah ngerangkum atau malah ngejudge. Editor majalah Logic(s), Edward Ongweso Jr. , sama professor IT, Jathan Sadowski, ngekritisi penggunaan AI buat nulis laporan polisi. Mereka ngomong kalo AI dilatih pake data yang bias, dan kamera badan yang dipakai polisi juga bisa merugikan orang-orang yang udah tertindas.
Axon sih bilang kalo mereka udah ngetes Draft One buat ngecek ada enggak bias rasial. Mereka tes pake 382 laporan polisi dan ngecek beberapa aspek, kayak konsistensi, kelengkapan, dan kata-kata yang dipake. Hasilnya, mereka bilang kalo enggak ada bias rasial yang signifikan. Axon juga ngetes AI buat ngerangkum video, tapi belum diluncurin. Katanya sih, soalnya masih banyak pertimbangan tentang sensitivitas polisi, ras, dan identitas orang yang terlibat. Axon pengen ngurangin kematian akibat senjata api di antara polisi dan warga sipil.
Makanya, mereka juga jual kamera badan buat ngebuktiin kalo polisi beneran ngelakuin tugasnya. Tapi, data dari Washington Post ngasih tau kalo polisi malah makin sering bunuh orang sejak tahun 2020, padahal kamera badan udah banyak dipake. Belom jelas sih, bakal banyak enggak kantor polisi yang pake AI kayak Draft One. Tapi yang jelas, perlu dipertimbangkan lagi efeknya ke keamanan dan keadilan. Ini kan baru masalahnya. Bayangin kalo nanti semua laporan polisi dibuat AI, terus gimana kalo AI-nya salah ngerangkum atau malah ngarang-ngarang? Kalo polisi ngelakuin tindakan brutal, tapi laporan polisi-nya dikarang AI, gimana mau diproses hukum? Selain itu, kalo AI cuma dipake buat nulis laporan polisi kasus ringan, terus gimana sama kasus serius? Kalo AI salah ngerangkum bukti, bisa-bisa orang yang enggak bersalah jadi tertuduh.
Terus, kalo AI-nya bias, bisa-bisa polisi jadi lebih sering nge-target orang-orang yang udah tertindas. Ini bisa memperburuk diskriminasi dan ketidakadilan di masyarakat. AI memang canggih, tapi perlu diingat, AI itu "dibikin" sama manusia. Kalo manusia-nya bias, AI-nya juga bisa bias. Jangan sampe AI jadi alat buat ngeperparah ketidakadilan.