Liquid AI: Model AI Non-Transformer Ungguli Kinerja Transformer



Liquid AI: Model AI Non-Transformer Ungguli Kinerja Transformer - picture origin: venturebeat - pibitek.biz - Efisiensi

picture origin: venturebeat


336-280
TL;DR
  • Liquid AI merilis model AI multimodal pertamanya, Liquid Foundation Models (LFMs), yang tidak mengandalkan arsitektur transformer dan menunjukkan performa yang unggul dibandingkan model transformer seukurannya.
  • LFMs dirancang untuk memberikan performa terbaik sambil mengoptimalkan efisiensi memori, dengan kemampuan untuk melampaui model berbasis transformer dengan penggunaan memori yang jauh lebih rendah.
  • Liquid AI menekankan pentingnya pengembangan dan penerapan model AI secara bertanggung jawab, dengan mempertimbangkan dampak etika dan sosialnya.

pibitek.biz -Liquid AI, sebuah perusahaan rintisan yang didirikan oleh mantan peneliti dari Laboratorium Ilmu Komputer dan AI (CSAIL) di Massachusetts Institute of Technology (MIT), telah mengumumkan peluncuran model AI multimodal pertamanya: Liquid Foundation Models (LFMs). LFMs menonjol dari model AI Generatif kontemporer lainnya karena tidak mengandalkan arsitektur transformer, yang dipopulerkan oleh makalah seminal "Attention Is All You Need" pada tahun 2017. Liquid AI menegaskan komitmennya untuk menjelajahi cara membangun model dasar di luar Generative Pre-trained Transformers (GPTs), dengan LFM yang dirancang dari prinsip pertama, menyerupai proses rekayasa mesin, mobil, dan pesawat terbang.

Pendekatan ini telah membuahkan hasil yang mengesankan, dengan LFM yang mampu menunjukkan performa yang unggul dibandingkan model transformer seukurannya, seperti Llama 3.1-8B milik Meta dan Phi-3.5 3.8B milik Microsoft. LFMs tersedia dalam tiga ukuran dan varian: LFM-1.3B, LFM-3B, dan LFM-13B. Angka "B" menunjukkan jumlah parameter, atau pengaturan, yang mengatur pemrosesan informasi, analisis, dan generasi output model. Model dengan jumlah parameter yang lebih tinggi umumnya memiliki kemampuan yang lebih luas dalam berbagai tugas.

Liquid AI menyatakan bahwa LFM 1.3B melampaui Llama 3.2-1.2B milik Meta dan Phi-1.5 dalam banyak tolok ukur pihak ketiga, termasuk Massive Multitask Language Understanding (MMLU) yang terdiri dari 57 masalah di bidang sains, teknologi, teknik, dan matematika (STEM). Prestasi ini menandai momen penting dalam sejarah AI, di mana arsitektur non-GPT untuk pertama kalinya mampu melampaui kinerja model berbasis transformer. Ketiga model LFM dirancang untuk memberikan performa terbaik sambil mengoptimalkan efisiensi memori.

LFM-3B, misalnya, hanya membutuhkan memori sebesar 16 GB, jauh lebih sedikit dibandingkan dengan Llama-3.2-3B milik Meta yang membutuhkan lebih dari 48 GB. Maxime Labonne, Kepala Post-Training di Liquid AI, mengumumkan kebanggaannya atas peluncuran LFM, menekankan keunggulan utama LFMs: kemampuan untuk melampaui model berbasis transformer dengan penggunaan memori yang jauh lebih rendah. Keunggulan LFM tidak hanya terletak pada performa mentah, tetapi juga pada efisiensi operasional. Hal ini menjadikan LFM ideal untuk berbagai kasus penggunaan, termasuk aplikasi tingkat perusahaan, khususnya di bidang jasa keuangan, bioteknologi, dan elektronik konsumen, serta penerapan di perangkat tepi.

Namun, perlu dicatat bahwa LFM tidak tersedia secara open source. Pengguna harus mengaksesnya melalui Liquid Inference Playground, Lambda Chat, atau Perplexity AI. Liquid AI menggunakan kombinasi unit komputasi yang berakar kuat dalam teori sistem dinamis, pemrosesan sinyal, dan aljabar linear numerik untuk melatih LFMs. Hasilnya adalah model AI serbaguna yang dapat digunakan untuk memodelkan berbagai data berurutan, termasuk video, audio, teks, deret waktu, dan sinyal. Pada tahun sebelumnya, Liquid AI telah merilis Liquid Neural Networks (LNNs), sebuah arsitektur yang dikembangkan di CSAIL dengan tujuan meningkatkan efisiensi dan kemampuan beradaptasi neuron atau node buatan untuk transformasi data.

Tidak seperti model pembelajaran mendalam tradisional yang membutuhkan ribuan neuron untuk menyelesaikan tugas kompleks, LNNs menunjukkan bahwa lebih sedikit neuron, digabungkan dengan formulasi matematika inovatif, dapat mencapai hasil yang sama. LFMs mempertahankan manfaat utama dari kemampuan beradaptasi ini, memungkinkan penyesuaian waktu nyata selama inferensi tanpa overhead komputasi yang terkait dengan model tradisional. LFMs dapat menangani hingga 1 juta token secara efisien sambil meminimalkan penggunaan memori.

Data dari blog Liquid AI menunjukkan bahwa model LFM-3B melampaui model populer seperti Gemma-2 milik Google, Phi-3 milik Microsoft, dan Llama-3.2 milik Meta dalam hal jejak memori inferensi, terutama saat panjang token meningkat. Sementara model lain mengalami peningkatan penggunaan memori yang tajam untuk pemrosesan konteks panjang, LFM-3B mempertahankan jejak yang jauh lebih kecil, menjadikannya sangat cocok untuk aplikasi yang membutuhkan pemrosesan data berurutan dalam jumlah besar, seperti analisis dokumen atau chatbot. Liquid AI telah mendesain model dasar agar serbaguna dalam berbagai modalitas data, termasuk audio, video, dan teks.

Kemampuan multimodal ini memungkinkan Liquid AI untuk mengatasi berbagai tantangan khusus industri, mulai dari jasa keuangan hingga bioteknologi dan elektronik konsumen. Liquid AI sedang mengoptimalkan modelnya untuk penerapan pada hardware dari NVIDIA, AMD, Apple, Qualcomm, dan Cerebras. Meskipun masih dalam tahap pratinjau, Liquid AI mengundang adopter dan pengembang awal untuk menguji model dan memberikan umpan balik. Labonne mencatat bahwa meskipun semuanya "tidak sempurna", umpan balik yang diterima selama tahap ini akan membantu tim menyempurnakan penawarannya sebelum peluncuran penuh pada tanggal 23 Oktober 2024, di Auditorium Kresge MIT di Cambridge, MA.

Perusahaan tersebut menerima RSVP untuk peserta acara langsung di sini. Sebagai bagian dari komitmennya terhadap transparansi dan kemajuan ilmiah, Liquid AI mengatakan akan merilis serangkaian postingan blog teknis menjelang peluncuran produk. Perusahaan juga berencana untuk terlibat dalam upaya "red-teaming", mendorong pengguna untuk menguji batas model mereka untuk meningkatkan iterasi mendatang. Dengan diperkenalkannya Liquid Foundation Models, Liquid AI menempatkan dirinya sebagai pemain kunci dalam ruang model dasar.

Menggabungkan performa terbaik dengan efisiensi memori yang belum pernah ada sebelumnya, LFM menawarkan alternatif yang menarik untuk model berbasis transformer tradisional. Meskipun LFM menawarkan kemajuan yang signifikan, penting untuk mempertimbangkan konteksnya dalam lanskap AI yang luas. LFM, seperti banyak model AI lainnya, tidak lepas dari keterbatasan dan potensi bahaya. Meskipun model AI secara keseluruhan menunjukkan potensi besar untuk meningkatkan kehidupan manusia, penting untuk menyadari bahwa teknologi ini dapat disalahgunakan.

Penting untuk mengembangkan dan menerapkan model AI secara bertanggung jawab, dengan mempertimbangkan dampak etika dan sosialnya. Model AI seperti LFM dapat digunakan untuk tujuan yang bermanfaat, seperti mendiagnosis penyakit, memprediksi bencana alam, dan mempersonalisasi pengalaman pengguna. Namun, teknologi yang sama dapat digunakan untuk tujuan yang merugikan, seperti manipulasi informasi, diskriminasi, dan pelanggaran privasi. Ketergantungan berlebihan pada AI dapat menimbulkan risiko, termasuk hilangnya pekerjaan, ketidaksetaraan sosial, dan bahkan ancaman eksistensial bagi umat manusia.

Penting untuk memprioritaskan pengembangan dan penerapan AI yang etis dan bertanggung jawab, dengan mempertimbangkan dampaknya pada masyarakat dan lingkungan. Dengan mempertimbangkan semua faktor tersebut, kita harus mendekati perkembangan AI dengan optimisme yang hati-hati, menyadari potensi dan risikonya.