- Aturan AI baru di California memicu perdebatan sengit, dengan LeCun menentang dan Hinton mendukung regulasi.
- LeCun khawatir regulasi akan menghambat inovasi, sementara Hinton berpendapat AI berpotensi berbahaya.
- Keputusan Gubernur California tentang aturan ini akan berdampak besar pada perkembangan AI di seluruh dunia.
pibitek.biz -Di dunia AI, perdebatan sengit sedang terjadi, melibatkan dua tokoh besar: Yann LeCun dan Geoffrey Hinton. Keduanya adalah pionir dalam AI, masing-masing memiliki kontribusi besar dalam perkembangan AI. Namun, mereka memiliki pandangan berbeda tentang bagaimana AI harus diatur. LeCun, yang memegang posisi penting sebagai kepala ilmuwan AI di Meta, secara terbuka menentang sebuah aturan baru di California, SB 1047. Aturan ini memiliki tujuan untuk menuntut para pengembang AI yang menciptakan model AI supercanggih jika model mereka menyebabkan kerusakan besar.
2 – Cyera Akuisisi Trail Security untuk Keamanan Data 2 – Cyera Akuisisi Trail Security untuk Keamanan Data
3 – Serangan Ransomware Turun 300%, Microsoft Ungkap Strategi Baru 3 – Serangan Ransomware Turun 300%, Microsoft Ungkap Strategi Baru
LeCun menganggap aturan ini tidak masuk akal dan tidak perlu. LeCun meyakini bahwa banyak orang terlalu berharap pada AI, menganggapnya sudah bisa melakukan banyak hal, padahal kenyataannya belum. Menurut LeCun, AI masih butuh waktu lama untuk berkembang dan mencapai tingkat kecerdasan yang dibayangkan. Dia berpendapat bahwa terlalu dini untuk membuat aturan yang menuntut tanggung jawab kepada para pengembang AI. LeCun percaya bahwa terlalu dini untuk memikirkan aturan yang menuntut pertanggungjawaban dari para pengembang AI.
Dia juga merasa bahwa regulasi yang terlalu ketat justru akan menghambat inovasi dan perkembangan AI. LeCun juga khawatir bahwa regulasi yang terlalu ketat akan menghambat inovasi dan perkembangan AI, serta menyebabkan terlambatnya kemajuan di bidang ini. Di sisi lain, Hinton, yang sering disebut sebagai "Godfather of AI", memiliki pandangan yang berbeda. Dia mendukung penuh SB 1047. Menurut Hinton, AI sudah memiliki potensi besar untuk menghancurkan dunia. Dia mencontohkan bahwa AI bisa digunakan untuk membuat senjata biologis yang mematikan atau digunakan untuk merusak sistem keamanan negara.
Hinton yakin bahwa AI dapat disalahgunakan oleh pihak-pihak yang tidak bertanggung jawab. Hinton memiliki alasan kuat untuk mendukung SB 1047. Tahun lalu, dia memutuskan untuk keluar dari Google agar bisa berbicara lebih bebas tentang bahaya AI. Dia tidak lagi merasa terikat oleh aturan dan kebijakan Google yang mungkin membatasi pandangannya tentang risiko AI. Hinton merasa bahwa sudah saatnya dunia AI untuk mengambil tindakan serius dalam menghadapi potensi bahaya AI. SB 1047 menargetkan model AI yang membutuhkan biaya pelatihan minimal $100 juta dan beroperasi di California.
Aturan ini telah memicu perdebatan sengit di dunia AI, terutama di California, negara paling maju di Amerika Serikat. Banyak orang yang terlibat dalam bidang AI merasa bahwa SB 1047 adalah langkah yang penting untuk menjaga keamanan AI, tetapi banyak juga yang merasa bahwa aturan ini terlalu ketat dan akan menghambat inovasi. Penganut SB 1047, selain Hinton, termasuk Elon Musk. Ini mengejutkan banyak orang karena sebelumnya Elon Musk sering mengkritik penulis aturan ini, Senator Scott Wiener. Namun, Elon Musk sepertinya telah berubah pikiran dan sekarang melihat pentingnya regulasi AI.
Sebaliknya, tokoh politik seperti Nancy Pelosi dan Walikota San Francisco, London Breed, menolak SB 1047. Mereka merasa bahwa SB 1047 akan menghambat perkembangan ekonomi di California. Perdebatan tentang SB 1047 semakin memanas karena melibatkan banyak perusahaan besar yang punya kepentingan di AI. Perusahaan-perusahaan ini awalnya menolak SB 1047, tetapi kemudian mengubah pikiran mereka setelah aturan ini diubah. Beberapa perusahaan merasa bahwa manfaat dari SB 1047 lebih banyak daripada kerugiannya.
Anthropic, salah satu perusahaan AI yang awalnya menolak SB 1047, akhirnya setuju setelah beberapa poin di aturan ini diubah. Anthropic menyatakan bahwa mereka merasa manfaat dari SB 1047 lebih banyak daripada kerugiannya. Perusahaan ini mengakui bahwa regulasi diperlukan untuk menjaga keamanan AI, tetapi tetap menginginkan agar aturan ini tidak terlalu ketat. Kritikus SB 1047 merasa bahwa aturan ini akan menghambat inovasi AI. Andrew Ng, pendiri DeepLearning. AI, berpendapat bahwa aturan ini terlalu membatasi AI, padahal yang harus diatur bukanlah teknologi AI-nya sendiri, melainkan penggunaannya.
Ng merasa bahwa aturan ini tidak tepat sasaran. Para pendukung SB 1047 berpendapat bahwa aturan ini penting untuk menjamin keamanan AI. Mereka merasa bahwa aturan ini tidak terlalu ketat karena hanya menargetkan model AI yang mahal. Mereka juga berpendapat bahwa aturan ini akan mencegah penyalahgunaan AI. Perdebatan tentang SB 1047 melibatkan banyak pihak, termasuk karyawan perusahaan AI yang awalnya tidak setuju dengan aturan ini. Hal ini menunjukkan bahwa di dalam perusahaan sendiri, ada perbedaan pendapat tentang keamanan dan inovasi AI.
Beberapa karyawan merasa bahwa regulasi AI diperlukan, tetapi mereka juga khawatir bahwa regulasi yang terlalu ketat akan menghambat perkembangan AI. Gubernur California, Gavin Newsom, memiliki tugas berat untuk mengambil keputusan tentang SB 1047. Keputusannya akan berdampak besar terhadap perkembangan AI di California dan bahkan di seluruh Amerika Serikat. Jika Newsom menyetujui SB 1047, itu akan menjadi preseden untuk regulasi AI di Amerika Serikat. Uni Eropa juga sedang membuat aturan AI sendiri.
Keputusan California akan berpengaruh terhadap regulasi AI di dunia. Jika California memutuskan untuk menerapkan regulasi AI yang ketat, itu bisa menjadi inspirasi bagi negara-negara lain untuk melakukan hal yang sama. LeCun dan Hinton adalah contoh kecil dari perdebatan besar tentang AI. Perdebatan ini menunjukkan betapa sulitnya untuk mengatur AI karena AI terus berkembang dengan sangat cepat. Para pakar AI sendiri masih berdebat tentang bagaimana mendefinisikan AI yang aman. Gubernur Newsom harus membuat keputusan yang tepat, yaitu menyeimbangkan antara keamanan dan kemajuan AI.
Keputusan ini akan menentukan masa depan AI di dunia. Jika Newsom memilih untuk mengutamakan keamanan, AI mungkin akan berkembang lebih lambat, tetapi juga akan lebih aman. Jika Newsom memilih untuk mengutamakan kemajuan, AI mungkin akan berkembang lebih cepat, tetapi juga akan menjadi lebih berbahaya.