Hugging Face dan Google Percepat Pengembangan AI Terbuka



TL;DR
  • Hugging Face dan Google berkolaborasi untuk mengembangkan AI terbuka.
  • Pengguna Hugging Face di Google Cloud bisa akses model AI dan infrastruktur terkini.
  • Kolaborasi ini memungkinkan pelatihan, penyesuaian, dan penerapan model dengan mudah.
Hugging Face dan Google Percepat Pengembangan AI Terbuka - image origin: venturebeat - pibitek.biz - IT

image origin: venturebeat


336-280

pibitek.biz -Hugging Face dan Google baru-baru ini mengumumkan kolaborasi strategis mereka yang bertujuan untuk memberikan pengalaman lebih mulus bagi para pengembang AIpengembang AI. Kolaborasi ini memungkinkan pengguna model open-source dari Hugging Face, untuk melatih dan melayani model mereka dengan menggunakan layanan Google Cloud. Ini mencakup akses ke berbagai layanan AI dari Vertex AI hingga tensor processing units (TPUs) dan graphics processing units (GPUs).

Dalam pernyataannya, CEO Hugging FaceCEO Hugging Face, Clement Delangue, menyebut bahwa melalui kemitraan ini, pengguna Hugging Face dan pelanggan Google Cloud dapat dengan mudah memanfaatkan model terbaru bersama dengan infrastruktur dan alat AI terkini. Hugging Face, yang telah menjadi "GitHub untuk AI", menyimpan lebih dari 500.000 model AI dan 250.000 dataset, melayani lebih dari 50.000 organisasi dalam upaya pengembangan AI mereka. Para pengguna aktif Hugging Face di Google Cloud akan mendapatkan kemampuan untuk melatih, menyesuaikan, dan melayani model mereka dengan Vertex AI, platform MLOps end-to-end untuk membangun aplikasi AI Generatif baru.

Pengalaman ini akan tersedia dengan beberapa klik dari platform Hugging Face utama dan termasuk opsi untuk melatih dan menerapkan model dalam Google Kubernetes Engine (GKE). Meskipun pengumuman kolaborasi ini baru saja dilakukan, pengguna Hugging Face di Google Cloud diharapkan dapat mengakses pengalaman ini pada paruh pertama tahun 2024. Dengan demikian, pengembang akan dapat melayani beban kerja mereka dengan infrastruktur "do it yourself" dan mengukur model menggunakan kontainer deep learning khususkontainer deep learning khusus Hugging Face di GKE.

Pengguna yang melatih model juga dapat memanfaatkan kemampuan hardware yang ditawarkan oleh Google Cloud, termasuk TPU v5e, A3 VMs dengan Nvidia H100 Tensor Core GPUs, dan C3 VMs dengan Intel Sapphire Rapid CPUs. Sebagai tambahan, pengguna akan dapat dengan mudah mendeploy model mereka untuk produksi di Google Cloud dengan endpoin inferensi. Dengan demikian, para pembangun AI dapat mempercepat aplikasi mereka dengan TPU di Hugging Face spaces dan organisasi dapat mengelola penggunaan dan penagihan langganan Enterprise Hub mereka melalui akun Google Cloud.