Teknologi AI Imperial College London Dan DeepMind Hemat Data Latih



Teknologi AI Imperial College London Dan DeepMind Hemat Data Latih - credit: venturebeat - pibitek.biz - Instruksi

credit: venturebeat


336-280
TL;DR
  • Agen menggunakan DAAG untuk menghemat data latih dalam berinteraksi dengan lingkungan fisik.
  • DAAG memungkinkan agen belajar lebih cepat dengan menggunakan pengalaman masa lalu dan data sintetis dalam lingkungan.
  • Agen yang ditenagai DAAG dapat beradaptasi dengan lingkungan yang berbeda tanpa banyak data latih.

pibitek.biz -Kolaborasi antara Imperial College London dan DeepMind melahirkan teknologi AI baru yang dapat berinteraksi dengan lingkungan fisik. Teknologi ini memiliki potensi besar untuk berbagai aplikasi, tetapi ketersediaan data latih masih menjadi salah satu hambatan utamanya. Para peneliti dari kedua institusi tersebut mengembangkan kerangka kerja baru yang disebut Diffusion Augmented Agents (DAAG). DAAG menggunakan kekuatan LLM, model visi bahasa (VLM), dan model difusi untuk meningkatkan efisiensi pembelajaran dan kemampuan transfer pembelajaran pada agen yang tersemat.

DAAG dirancang untuk memungkinkan agen belajar tugas dengan lebih efisien dengan menggunakan pengalaman masa lalu dan menghasilkan data sintetis. Agen ini dapat berinteraksi dengan lingkungan fisik dan memproses informasi yang diterima dari sensor dan aktuator. DAAG menggunakan dua buffer memori: buffer tugas khusus yang menyimpan pengalaman untuk tugas saat ini dan buffer hidup sepanjang hayat yang menyimpan semua pengalaman masa lalu, terlepas dari tugas yang mereka lakukan atau hasilnya. Ketika agen menerima instruksi untuk tugas baru, LLM memproses instruksi tersebut dan memecahnya menjadi sub-tugas yang lebih kecil.

VLM dan model difusi kemudian bekerja sama untuk memberikan referensi untuk mencapai tujuan. Jika buffer pengalaman tidak memiliki observasi yang relevan, model difusi menghasilkan data sintetis untuk membantu agen "membayangkan" apa yang diinginkan. Ini memungkinkan agen untuk menjelajahi kemungkinan yang berbeda tanpa berinteraksi fisik dengan lingkungan. Para peneliti mengevaluasi DAAG pada beberapa benchmark dan tiga lingkungan simulasi yang berbeda, mengukur kinerjanya pada tugas seperti navigasi dan manipulasi objek.

Mereka menemukan bahwa kerangka kerja ini memberikan peningkatan yang signifikan dibandingkan dengan sistem pembelajaran penguatan dasar. Agen yang ditenagai oleh DAAG dapat belajar mencapai tujuan bahkan ketika tidak diberikan hadiah eksplisit. Mereka juga dapat mencapai tujuan lebih cepat dan dengan interaksi yang lebih sedikit dengan lingkungan dibandingkan dengan agen yang tidak menggunakan kerangka kerja ini. DAAG lebih cocok untuk menghemat data dari tugas sebelumnya untuk mempercepat proses pembelajaran untuk tujuan baru.

Kemampuan untuk mentransfer pengetahuan antar tugas sangat penting untuk mengembangkan agen yang dapat belajar terus-menerus dan beradaptasi dengan situasi baru. Keberhasilan DAAG dalam memungkinkan pembelajaran transfer yang efisien pada agen yang tersemat memiliki potensi untuk membuka jalan bagi robot dan sistem AI yang lebih tangguh dan adaptif. Kerangka kerja ini dapat membantu mengatasi keterbatasan data latih pada robot dan sistem AI yang tersemat. DAAG dapat membantu agen belajar lebih cepat dan efisien dengan menggunakan pengalaman masa lalu dan menghasilkan data sintetis.

Ini dapat membantu mengurangi kebutuhan akan data latih yang besar dan memungkinkan agen untuk beradaptasi dengan situasi yang berbeda. DAAG dapat digunakan dalam berbagai aplikasi, seperti robotika, kendaraan otonom, dan sistem AI yang tersemat lainnya. Kerangka kerja ini dapat membantu meningkatkan kemampuan agen untuk belajar dan beradaptasi dengan lingkungan yang berbeda.

Ini dapat membantu mengurangi kebutuhan akan data latih yang besar dan memungkinkan agen untuk beroperasi dengan lebih efisien. Pengembangan DAAG masih dalam tahap awal, dan para peneliti masih terus mengembangkan dan meningkatkan kerangka kerja ini. Namun, hasil awal menunjukkan bahwa DAAG memiliki potensi besar untuk mengatasi keterbatasan data latih pada robot dan sistem AI yang tersemat. Dengan terus mengembangkan dan meningkatkan DAAG, para peneliti dapat membantu menciptakan agen yang lebih tangguh dan adaptif yang dapat beroperasi dengan lebih efisien dalam berbagai lingkungan.

Kemampuan DAAG untuk menghasilkan data sintetis dapat membantu mengurangi kebutuhan akan data latih yang besar. Dengan menggunakan data sintetis, agen dapat belajar dan beradaptasi dengan lingkungan yang berbeda tanpa perlu banyak data latih. Ini dapat membantu mengurangi biaya dan waktu yang dibutuhkan untuk melatih agen. DAAG juga dapat membantu meningkatkan kemampuan agen untuk beroperasi dalam lingkungan yang tidak pasti.

Dengan menggunakan pengalaman masa lalu dan menghasilkan data sintetis, agen dapat belajar dan beradaptasi dengan lingkungan yang berbeda. Ini dapat membantu mengurangi kebutuhan akan data latih yang besar dan memungkinkan agen untuk beroperasi dengan lebih efisien. Pengembangan DAAG masih dalam tahap awal, dan para peneliti masih terus mengembangkan dan meningkatkan kerangka kerja ini.

Namun, hasil awal menunjukkan bahwa DAAG memiliki potensi besar untuk mengatasi keterbatasan data latih pada robot dan sistem AI yang tersemat. Dengan terus mengembangkan dan meningkatkan DAAG, para peneliti dapat membantu menciptakan agen yang lebih tangguh dan adaptif yang dapat beroperasi dengan lebih efisien dalam berbagai lingkungan. Kemampuan DAAG untuk mentransfer pengetahuan antar tugas sangat penting untuk mengembangkan agen yang dapat belajar terus-menerus dan beradaptasi dengan situasi baru.

Dengan menggunakan pengalaman masa lalu dan menghasilkan data sintetis, agen dapat belajar dan beradaptasi dengan lingkungan yang berbeda. Ini dapat membantu mengurangi kebutuhan akan data latih yang besar dan memungkinkan agen untuk beroperasi dengan lebih efisien. DAAG dapat membantu mengatasi keterbatasan data latih pada robot dan sistem AI yang tersemat.

Dengan menggunakan pengalaman masa lalu dan menghasilkan data sintetis, agen dapat belajar dan beradaptasi dengan lingkungan yang berbeda. Ini dapat membantu mengurangi kebutuhan akan data latih yang besar dan memungkinkan agen untuk beroperasi dengan lebih efisien. Kemampuan DAAG untuk menghasilkan data sintetis dapat membantu mengurangi kebutuhan akan data latih yang besar. Dengan menggunakan data sintetis, agen dapat belajar dan beradaptasi dengan lingkungan yang berbeda tanpa perlu banyak data latih.

Ini dapat membantu mengurangi biaya dan waktu yang dibutuhkan untuk melatih agen. DAAG dapat membantu meningkatkan kemampuan agen untuk beroperasi dalam lingkungan yang tidak pasti. Dengan menggunakan pengalaman masa lalu dan menghasilkan data sintetis, agen dapat belajar dan beradaptasi dengan lingkungan yang berbeda. Ini dapat membantu mengurangi kebutuhan akan data latih yang besar dan memungkinkan agen untuk beroperasi dengan lebih efisien.