AI yang Bisa Tebak Kapan Orang Mati



TL;DR
  • Model AI bernama life2vec bisa menebak kapan seseorang akan mati.
  • Dengan tingkat akurasi yang tinggi, model ini menggunakan data kehidupan dan kesehatan.
  • Meskipun hasilnya akurat, model ini tidak boleh digunakan oleh perusahaan asuransi.
AI yang Bisa Tebak Kapan Orang Mati - image owner: readwrite - pibitek.biz - Pangsa Pasar

image owner: readwrite


336-280

pibitek.biz -Sebuah model AI inovatif yang dilatih dengan data kehidupan lebih dari satu juta orang telah menunjukkan bahwa ia bisa menebak kapan seseorang akan mati dengan tingkat akurasi yang tinggi, seperti yang dilaporkan oleh Independent. Model AI ini, yang disebut life2vec, bekerja seperti ChatGPT, yaitu menggunakan data kesehatan dan pasar kerja enam juta warga Denmark yang dikumpulkan dari tahun 2008 hingga 2020. Dengan data tersebut, ia menghasilkan prediksi yang mengesankan tentang harapan hidup dan risiko kematian dini seseorang.

Penulis utama studi ini, Sune Lehman dari Technical University of Denmark (DTU), mengatakan bahwa tujuan utama model ini adalah untuk menjawab pertanyaan, sejauh mana kita bisa menebak kejadian di masa depan seseorang berdasarkan kondisi dan kejadian di masa lalunya. Lehman menambahkan bahwa yang menarik secara ilmiah bagi mereka bukanlah prediksi itu sendiri, melainkan aspek data yang memungkinkan model ini memberikan jawaban yang sangat tepat. Dalam proyek penelitian ini, mereka menggunakan data sekelompok orang berusia 35 hingga 65 tahun, dengan setengah dari mereka meninggal antara tahun 2016 dan 2020, lalu meminta life2vec untuk menebak siapa yang hidup dan siapa yang mati.

Hasilnya, model ini memberikan prediksi yang 11% lebih akurat daripada sumber AI lain yang digunakan untuk tujuan yang sama, bahkan lebih baik daripada metode yang digunakan oleh perusahaan asuransi jiwa untuk menghitung premi. Tentu saja, ada kekhawatiran etis tentang bagaimana teknologi AI ini bisa digunakan. Lehman menegaskan bahwa model ini tidak boleh digunakan oleh perusahaan asuransi.

"Jelas, model kami tidak boleh digunakan oleh perusahaan asuransi, karena ide dasar asuransi adalah, dengan berbagi ketidaktahuan tentang siapa yang akan menjadi orang yang sial yang tertimpa musibah, atau kematian, atau kehilangan ransel, kita bisa berbagi beban ini", katanya. Temuan dan pertimbangan etis ini menimbulkan kecemasan tentang kemampuan AI dan mengapa perlindungan harus diberlakukan. Baru-baru ini, OpenAI memperkenalkan model tata kelola baru untuk pengawasan keamanan AI, sementara Uni Eropa sudah mencapai kesepakatan tentang regulasi yang signifikan.