- William Saunders, mantan karyawan OpenAI, ngasih peringatan keras tentang bahaya AI super canggih.
- Saunders ngasih tau OpenAI lebih ngejar profit daripada keamanan AI.
- Saunders ngasih tau kalo AI super canggih bisa bikin ketidaksetaraan di dunia.
pibitek.biz -Sebuah kabar mengejutkan datang dari dunia AI. OpenAI, perusahaan yang terkenal dengan AI super canggihnya, ternyata sedang membuat model AI terbaru yang punya kemampuan menakutkan. Bukan cuma bisa ngobrol dan nulis kayak manusia, AI ini bisa bikin senjata biologis! Bayangkan, teknologi yang tadinya dikira cuma buat hiburan dan memudahkan kehidupan manusia, eh, ternyata bisa jadi alat perang! Mantan karyawan OpenAI, William Saunders, ngebongkar semua ini di hadapan para senator Amerika. Saunders, yang dulunya ngerjain proyek AI di OpenAI, nunjukin bukti bahwa GPT-o1, model AI terbaru OpenAI, punya kemampuan yang bisa dijadiin alat bikin senjata biologis.
2 – Ransomware BianLian Serang Rumah Sakit Anak Boston 2 – Ransomware BianLian Serang Rumah Sakit Anak Boston
3 – Serangan Siber Hantam Globe Life, Data Ribuan Pelanggan Dicuri 3 – Serangan Siber Hantam Globe Life, Data Ribuan Pelanggan Dicuri
AI ini, katanya, punya kemampuan ngebaca dan ngerti banget tentang biologi. Saunders bilang, "GPT-o1 adalah AI pertama yang bisa bantu para ahli bikin senjata biologi". Saunders nggak main-main, dia ngasih peringatan keras, "Kalo AI super canggih ini nggak diawasi, kita semua bakal terancam bahaya besar. Bahaya yang bisa bikin dunia kiamat!" Saunders juga ngasih tau, bahwa AI ini bisa bikin senjata biologi yang baru, bukan cuma yang udah ada aja. "AI ini bisa bikin senjata biologi baru yang lebih berbahaya.
Kita bahkan nggak bisa bayangin, seberapa bahaya senjata biologis ini!" Yang bikin tambah serem, para ahli ngomong kalau AI super canggih ini akan muncul sebentar lagi. Mereka menyebutnya dengan istilah "Artificial General Intelligence" (AGI). AGI adalah AI yang punya kemampuan setara sama manusia. AGI bisa belajar sendiri tanpa bantuan manusia, dan bisa ngerjain tugas apa aja kayak manusia. Saunders ngasih tahu, "AGI bisa jadi kenyataan dalam waktu tiga tahun!" Helen Toner, yang dulu kerja di OpenAI, juga punya pendapat yang sama. "Kita mesti siap-siap, AGI bakal muncul dalam satu atau dua dekade lagi!" Saunders, yang udah tiga tahun kerja di OpenAI, ngasih peringatan keras tentang GPT-o1. "GPT-o1 udah melewati tahap uji coba yang serius. Kalo kita nggak hati-hati, bisa aja AI ini kepake buat hal-hal yang berbahaya!" Saunders juga ngritik OpenAI yang lebih ngejar keuntungan daripada keamanan. "OpenAI lebih ngejar profit, daripada ngamanin AI. Mereka nggak peduli kalo AI ini bisa bikin bahaya buat dunia!" "OpenAI ngerasa lebih penting buat ngeluarin produk AI yang baru, daripada ngetes dan ngamanin produk mereka". "Mereka masih nggak sadar kalo AI super canggih ini punya potensi bahaya yang besar!" Saunders juga ngasih tau, bahwa OpenAI udah ngebuang tim yang khusus ngurusi keamanan AI. Tim ini dibentuk buat ngontrol dan ngamanin AI super canggih. "Tim keamanan AI OpenAI udah bubar. Pimpinan dan banyak anggota tim udah keluar dari OpenAI karena nggak dikasih dukungan". "Kalo nggak ada tim yang jaga keamanan AI, bagaimana OpenAI bisa ngamanin AI super canggih?" Saunders ngasih tau, OpenAI udah ngeluarin GPT-o1 walaupun masih banyak kekurangan. "GPT-o1 masih banyak kekurangan. Tapi OpenAI tetep ngeluarin AI ini ke publik. OpenAI nggak peduli sama keamanan!" Saunders juga ngasih tau, banyak mantan karyawan OpenAI yang ngerasain hal yang sama. "Ilya Sutskever, co-founder OpenAI, juga keluar dari OpenAI dan ngebentuk perusahaan sendiri yang fokus ngamanin AI". "John Schulman, co-founder OpenAI, dan Jan Leike, kepala tim keamanan AI OpenAI, juga keluar dari OpenAI dan ngebentuk perusahaan sendiri". "Mereka ngerasain bahwa OpenAI lebih ngejar profit daripada ngamanin AI".
Saunders ngasih tau, kalo OpenAI udah nggak bisa dipercaya lagi buat ngurus AI super canggih. "OpenAI udah nggak bisa dipercaya lagi. Mereka nggak peduli sama keamanan AI!" Saunders ngasih tau, kalo kita semua mesti waspada sama AI super canggih. "Kalo AI super canggih ini jatuh ke tangan yang salah, dunia akan hancur!" Saunders juga ngasih tau, bahwa AI super canggih bisa bikin ketidaksetaraan di dunia. "AI super canggih bisa dipake buat menguasai orang lain dan bikin kekacauan di dunia!" Saunders juga ngasih tau, bahwa AI super canggih bisa bikin informasi salah beredar luas di dunia. "AI super canggih bisa bikin berita palsu yang bisa ngaruhin orang banyak!" Saunders juga ngasih tau, bahwa AI super canggih bisa ngebikin kita semua hilang kontrol atas kehidupan kita. "AI super canggih bisa ngebikin kita semua jadi budak AI. Kita nggak bisa lagi ngontrol kehidupan kita!" Saunders ngasih peringatan keras buat pemerintah di seluruh dunia. "Pemerintah di seluruh dunia harus segera ngatur AI super canggih sebelum terlambat!" Saunders juga ngasih tau, bahwa pemerintah harus ngasih perlindungan buat karyawan yang ngebongkar rahasia di perusahaan AI. "Karyawan yang ngebongkar rahasia di perusahaan AI harus dikasih perlindungan dari pemerintah!" Saunders ngasih peringatan keras buat semua orang. "Kita harus waspada sama AI super canggih. AI ini bisa jadi ancaman besar buat dunia!" "Kita harus bersama-sama ngamanin dunia dari ancaman AI super canggih!" – –