Sam Altman Ramal AI Superinteligensi Dalam 8 Tahun



Sam Altman Ramal AI Superinteligensi Dalam 8 Tahun - credit: zdnet - pibitek.biz - Komputasi

credit: zdnet


336-280
TL;DR
  • Pengembangan AI harus dikawal dengan prinsip-prinsip etika dan nilai-nilai sosial yang kuat.
  • Pernyataan Altman tentang superinteligensi kurang detail dan berisiko, mengabaikan kritik ilmiah dan etika.
  • Pengembangan AI harus dilakukan secara bertanggung jawab dan dikawal dengan evaluasi kritis.

pibitek.biz -Sam Altman, CEO OpenAI, telah menyatakan bahwa artificial intelligence (AI) akan mencapai titik yang disebut "superinteligensi" dalam waktu delapan tahun mendatang. Pernyataan tersebut disampaikan Altman dalam sebuah esai yang dipublikasikan di situs web pribadinya. Altman memperkirakan bahwa superinteligensi dapat terwujud dalam waktu sekitar 3.000 hari, meskipun ia juga mengakui bahwa pencapaian tersebut mungkin memakan waktu lebih lama. Namun, Altman yakin bahwa superinteligensi akan tercapai.

Pernyataan Altman mengenai superinteligensi bukanlah sesuatu yang baru. Setahun sebelumnya, dalam sebuah wawancara dengan Financial Times, Altman telah menggunakan istilah superinteligensi. Ia seringkali menghubungkan superinteligensi dengan pencarian luas yang dilakukan oleh akademisi dan industri untuk mencapai "artificial general intelligence" (AGI). AGI merujuk pada komputer yang mampu bernalar sebaik atau bahkan lebih baik daripada manusia. Dalam esainya yang bertajuk "The Intelligence Age", Altman mempromosikan penyebaran AI kepada sebanyak mungkin orang.

Menurutnya, AI merupakan kemajuan dalam "infrastruktur masyarakat" yang akan memungkinkan lompatan besar dalam kesejahteraan manusia. Ia berpendapat bahwa AI memiliki potensi untuk menciptakan kesejahteraan yang belum pernah terjadi sebelumnya. "Dengan kemampuan baru ini, kita dapat memiliki kesejahteraan bersama pada tingkat yang tampak mustahil saat ini", tulis Altman. Ia menggambarkan masa depan di mana kehidupan setiap orang akan lebih baik daripada kehidupan siapa pun di masa sekarang. "Kesejahteraan saja tidak selalu membuat orang bahagia—banyak orang kaya yang sengsara—tetapi ini akan secara signifikan meningkatkan kehidupan orang-orang di seluruh dunia".

Meskipun Altman melukiskan gambaran optimis tentang masa depan AI, esainya minim detail teknis. Ia membuat sejumlah pernyataan sweeping tentang AI, tetapi tidak menjelaskan secara rinci bagaimana AI akan mencapai superinteligensi atau bagaimana superinteligensi akan memberikan manfaat bagi kemanusiaan. Argumen Altman tentang superinteligensi dan AI sebagai solusi untuk mencapai kesejahteraan dunia telah menuai kontroversi. Banyak ahli AI, seperti kritikus Gary Marcus, tidak setuju dengan pernyataan Altman.

Marcus berpendapat bahwa AGI, atau sesuatu yang serupa, tidak akan tercapai dalam waktu dekat, jika memang bisa tercapai sama sekali. Marcus telah lama mengkritik Altman atas penggunaan retorika bombastis untuk mempromosikan OpenAI dan agenda pribadinya, terutama dalam hal mendorong gagasan tentang AGI yang akan segera hadir. Marcus menuduh Altman memanfaatkan hype untuk mengesampingkan pandangan ilmiah yang lebih skeptis dan memperkuat posisi OpenAI. Yoav Shoham, ahli AI terkemuka dan pengusaha, juga tidak setuju dengan argumen Altman.

Ia berpendapat bahwa meningkatkan kekuatan komputasi saja tidak cukup untuk meningkatkan AI. Shoham mendorong eksplorasi ilmiah di luar deep learning untuk mengembangkan AI yang lebih canggih. Pandangan optimis Altman tidak membahas berbagai masalah bias dalam AI yang telah diangkat oleh para ilmuwan. Ia juga tidak membahas konsumsi energi yang meningkat dari pusat data AI, yang banyak dianggap sebagai risiko lingkungan yang serius. Bill McKibbon, seorang aktivis lingkungan, telah memperingatkan bahwa pengembangan AI akan memperburuk krisis iklim.

Ia menyatakan bahwa sumber energi terbarukan tidak akan mampu memenuhi permintaan energi yang meningkat akibat pengembangan AI. McKibbon berpendapat bahwa dalam kondisi darurat, kita seharusnya menunda pengembangan AI untuk saat ini. Pernyataan Altman muncul di tengah maraknya kritik terhadap AI. Marcus dan Narayanan & Kapoor telah menerbitkan buku yang mengkritik AI secara tajam. Marcus, dalam bukunya "Taming Silicon Valley", memperingatkan bahaya besar dari sistem AI Generatif yang tidak terkendali.

Ia menekankan pentingnya kontrol dan regulasi atas pengembangan AI. Marcus menuduh Altman menggunakan hype untuk mengesampingkan kritik terhadap OpenAI dan agenda pribadinya. Ia menyoroti bagaimana Altman menggunakan retorika bombastis untuk mempromosikan gagasan tentang AGI yang akan segera hadir. Marcus mempertanyakan mengapa pertanyaan ilmiah penting tentang kapan AGI tercapai akan "diputuskan" oleh dewan direksi OpenAI, bukan oleh komunitas ilmiah. Narayanan & Kapoor, dalam buku mereka "AI Snake Oil", mengecam hype yang mengelilingi AI.

Mereka secara khusus mengkritik pernyataan Altman tentang regulasi AI. Narayanan & Kapoor menuduh Altman menggunakan strategi manipulasi yang dikenal sebagai "regulatory capture" untuk menghindari kendala terhadap kekuasaan OpenAI. Kritik terhadap Altman dan OpenAI menunjukkan bahwa perkembangan AI harus dikawal dengan hati-hati dan dibarengi dengan evaluasi kritis. Altman telah mengabaikan beberapa kritik yang diangkat oleh para ahli, dan tampaknya lebih tertarik untuk mempromosikan visinya tentang masa depan AI tanpa memperhatikan potensi risiko dan kekurangan.

Pilihan kata Altman yang mengklaim bahwa AI akan dapat menciptakan kesejahteraan yang belum pernah terjadi sebelumnya dapat diartikan sebagai bentuk propaganda. Ia menggunakan bahasa yang emosional dan optimis untuk menarik perhatian publik dan meminimalkan potensi risiko. Namun, retorika bombastis Altman tidak diimbangi dengan argumen yang kuat dan analisis yang mendalam. Kritik yang diangkat Marcus, Shoham, McKibbon, Narayanan & Kapoor menunjukkan perlunya skeptisisme terhadap pernyataan optimis Altman dan OpenAI.

Pengembangan AI harus dikawal dengan hati-hati, dan harus didasarkan pada bukti ilmiah yang kuat. Pernyataan optimis Altman tentang AI dan superinteligensi tidak hanya mengabaikan kritik ilmiah tetapi juga mengabaikan nilai-nilai etis dan sosial yang penting. Altman seolah-olah mengabaikan potensi bahaya yang ditimbulkan oleh AI, seperti bias, diskriminasi, dan kerusakan lingkungan. Penting untuk diingat bahwa AI adalah alat yang dapat digunakan untuk tujuan baik dan buruk. Penggunaan AI harus didasarkan pada prinsip-prinsip etika dan nilai-nilai sosial yang kuat.

Masyarakat harus berperan aktif dalam mengawasi pengembangan dan penerapan AI. Pernyataan Altman tentang superinteligensi menimbulkan kekhawatiran serius. Apakah Altman benar-benar percaya bahwa AI akan mencapai superinteligensi dalam waktu dekat? Atau, apakah ini hanya strategi pemasaran untuk meningkatkan reputasi OpenAI dan menarik investasi? Pernyataan Altman tentang superinteligensi tidak hanya kurang detail tetapi juga sangat berisiko. Ia mengabaikan kritik ilmiah dan etika yang serius terhadap AI.

Keinginan Altman untuk mencapai superinteligensi dengan cepat tampaknya mengabaikan konsekuensi jangka panjang dari pengembangan AI yang tidak terkendali. Pengembangan AI harus dilakukan dengan hati-hati, dan harus dikawal dengan evaluasi kritis. Masyarakat harus mengawasi pengembangan AI agar tidak melampaui kendali. Penting untuk diingat bahwa teknologi, termasuk AI, tidak bernilai netral. Teknologi memiliki potensi untuk digunakan untuk tujuan baik dan buruk. AI memiliki potensi untuk meningkatkan kehidupan manusia, tetapi juga dapat menyebabkan kerusakan besar.

Pernyataan Altman tentang superinteligensi merupakan bukti keinginan untuk mencapai kemajuan teknologi dengan cepat. Namun, ambisi untuk mencapai superinteligensi dengan cepat tidak boleh mengabaikan nilai-nilai etika, sosial, dan lingkungan yang penting. Pengembangan AI harus dilakukan secara bertanggung jawab, dan harus dikawal dengan evaluasi kritis. Perlu diingat bahwa pernyataan Altman tentang superinteligensi perlu dikawal dengan hati-hati. Kita tidak boleh terjebak dalam euphoria kemajuan teknologi tanpa memperhatikan potensi risiko yang ditimbulkan oleh AI.