Mitos dan Tantangan LLM, Large Language Model



TL;DR
  • ChatGPT memulai revolusi teknologi dengan aAI Generatif pada tahun 2023.
  • LLM menawarkan UI/UX yang intuitif dan efisien dalam interaksi pengguna.
  • aAI Generatif memanfaatkan LLM dengan komponen pendukung seperti parser, connector, dan renderer.
Mitos dan Tantangan LLM, Large Language Model - credit for: venturebeat - pibitek.biz - GPT

credit for: venturebeat


336-280

pibitek.biz - Pada tahun 2023, ChatGPT memulai revolusi teknologi dengan mengembangkan AI Generatif interaktif yang bisa mengindeks dokumen, menghubungkan sumber data, dan bahkan menganalisis data dengan kalimat sederhana. Banyak orang berjanji untuk menghadirkan LLM yangmenghadirkan LLM yang lebih canggih, tetapi hanya sedikit yang berhasil melakukannya.

Mengapa demikian? Artikel ini akan membahas peran AI Generatif dalam menghubungkan LLM dengan sistem backend. Kemudian, artikel ini akan menjelaskan bagaimana AI Generatif menjadi generasi baru dari antarmuka dan pengalaman pengguna (UI/UX). Terakhir, artikel ini akan mengingatkan kita tentang beberapa prinsip rekayasa software yangrekayasa software yang tampaknya terlupakan akhir-akhir ini.

LLM menawarkan UI/UX yang lebih intuitif dan efisien daripada interaksi klik biasa. Misalnya, kamu ingin memesan pizza margherita gourmet yang diantar dalam 20 menit melalui aplikasi pengiriman. Dengan UI/UX normal, permintaan ini bisa membutuhkan banyak interaksi yang rumit dan memakan waktu.

Kamu mungkin harus melewati langkah-langkah berikut ini:

a. Membuka aplikasi dan memilih kategori makanan.

b. Mencari restoran yang menjual pizza dan masih buka.

c. Memeriksa menu dan harga pizza.

d. Memasukkan alamat pengiriman dan metode pembayaran.

e. Melacak status pesanan dan waktu pengantaran.

f. Sampai akhirnya pizza sampai di depan pintu kita.

Dengan LLM, kamu cukup mengetikkan permintaan kamu dalam bahasa alami, dan AI Generatif akan mengurus semuanya untuk kamu. Sekarang ini, dengan adanya fitur Voice, tinggal ketuk tombol mic dan bicara.

LLM seperti GPT-3, GPT-4, Claude, dlsb. memiliki kemampuan luar biasa dalam pemrosesan bahasa alami (NLP) dan menghasilkan respons yang koheren dan relevan. Dengan menghubungkan sumber data eksternal, algoritma, dan antarmuka khusus ke LLM, AI Generatif bisa melakukan lebih banyak hal dan bahkan membuka peluang untuk tugas-tugas baru yang belum bisa dilakukan oleh LLM saat ini. Namun, antarmuka berbasis LLM juga sangat kompleks.

Permintaan pizza kita saja membutuhkan koneksi ke beberapa sistem, seperti basis data restoran, manajemen persediaan, pelacakan pengiriman, dan lain-lain. Belum lagi, kita perlu koneksi tambahan untuk memungkinkan fleksibilitas yang lebih besar, yang penting untuk memberikan pengalaman yang mulus untuk berbagai permintaan. LLM tidak bisa melakukan semua itu sendiri.

LLM hanya menjadi dasar untuk sistem AI Generatif. Untuk menjawab berbagai macam pertanyaan, AI Generatif memanfaatkan LLM bersama dengan beberapa komponen pendukung yang penting, antara lain:

1. Parser: menguraikan permintaan pengguna menjadi komponen-komponen yang bisa diproses oleh LLM.

2. Connector: menghubungkan LLM dengan sumber data eksternal, algoritma, dan antarmuka khusus.

3. Renderer: menampilkan hasil dari LLM dalam bentuk yang sesuai dengan permintaan pengguna, seperti teks, gambar, grafik, dll.

Bahasa alami bisa membuatnya lebih mudah untuk menentukan kasus penggunaan untuk pengembangan software.

Namun, ketidakjelasan bahasa Inggris menyebabkan masalah baru dalam rekayasa software, yaitu sistem yang tidak spesifik atau dipahami dengan baik. Fred Brooks menjabarkan banyak prinsip rekayasa software yang penting dalam bukunya tahun 1975, The Mythical Man-Month, yang sebagian besar tampaknya terlupakan dalam gelombang LLM, misalnya:

A. Tidak ada peluru perak.

Tidak ada satu pun pengembangan yang bisa menghapus kebutuhan untuk praktik rekayasa software yang baik, termasuk LLM.

B. Dokumen manual dan formal.

Berkat hype, ini mungkin prinsip yang paling terlupakan di era LLM. Tidak cukup mengatakan "kembangkan sistem yang bisa memberitahu saya cara memesan pizza margherita gourmet dalam 20 menit". Ini membutuhkan dokumentasi tentang berbagai kasus penggunaan lainnya, sistem backend yang dibutuhkan, jenis visualisasi baru yang harus dibuat, dan yang paling penting, spesifikasi tentang apa yang tidak bisa dilakukan sistem.

Hal-hal seperti ini tampaknya menjadi norma dalam pengembangan software berbasis LLM, seolah-olah LLM bisa secara ajaib menghubungkan sistem backend dan memvisualisasikan data yang belum pernah dipelajarinya.

Untuk memastikan AI Generatif berbasis LLM bekerja dengan efektif, kita perlu organisasi data dan metodologi penulisan yang lebih formal, seperti yang dibahas di LinkedIn. Selain itu, sistem berbasis LLM mengharapkan dokumentasi yang ditulis dengan baik.

OpenAI baru-baru ini menyatakan bahwa tidak mungkin melatih AI tanpa menggunakan karya berhak cipta. Pada dasarnya, melatih model ini tidak hanya membutuhkan banyak teks, tetapi juga teks berkualitas tinggi, seperti karya berhak cipta yang dipublikasikan.

Teks yang ditulis dengan baik bahkan lebih penting jika kamu menggunakan teknologi berbasis RAG. Dalam RAG, kita mengindeks potongan dokumen menggunakan teknologi embedding di basis data vektor. Setiap kali pengguna mengajukan pertanyaan, kita mencari potongan dokumen di basis data, dan kemudian mengembalikan potongan dokumen peringkat teratas ke LLM generator. LLM kemudian akan menyusun jawaban berdasarkan potongan-potongan yang diterima tadi.

Ada ledakan janji-janji berbasis LLM di bidang ini, dan hanya sedikit yang terwujud. Untuk mewujudkan janji-janji itu dan membangun sistem cerdas AI, sudah waktunya kita mengakui bahwa kita sedang membangun sistem rekayasa software yang kompleks, bukan prototipe. Sistem cerdas berbasis LLM membawa tingkat kompleksitas lain ke desain sistem.

Kita perlu mempertimbangkan apa yang dibutuhkan untuk menentukan dan menguji sistem tersebut dengan benar. Terakhir, kita perlu memperlakukan data sebagai warga negara kelas satu, karena sistem cerdas ini jauh lebih rentan terhadap data buruk daripada sistem lainnya.