Google Cloud dan Hugging Face Jalin Kerjasama AI



TL;DR
  • Google Cloud dan Hugging Face berkolaborasi untuk AI sumber terbuka.
  • Integrasi Hugging Face dengan Vertex AI memudahkan akses pengembang.
  • Kemitraan ini memperkenalkan Cloud TPU v5e dan dukungan A3 VMs.
Google Cloud dan Hugging Face Jalin Kerjasama AI - photo origin: siliconangle - pibitek.biz - Machine Learning

photo origin: siliconangle


336-280

pibitek.biz - Google Cloud, divisi cloud dari Google LLC, baru saja mengumumkan kemitraan baru dengan Hugging Face Incdengan Hugging Face Inc., penyedia platform populer untuk berbagi model AI sumber terbuka. Kerjasama ini membuat Google Cloud menjadi tujuan utama untuk menjalankan proses pelatihan dan inferensi AI dari Hugging Face.

Selain itu, kedua perusahaan juga berencana mengintegrasikan beberapa layanan mereka masing-masing. Hugging Face, yang dinilai sebesar $4,5 miliar pada Agustus tahun lalu, menyediakan platform mirip GitHub untuk menyimpan model AI sumber terbuka. Platform ini juga memungkinkan pengguna untuk berbagi file terkait seperti dataset pelatihan.

Selain menjadi tempat bagi proyek machine learning dari pengembang lain, Hugging Face juga telah membangun dua model bahasa sumber terbuka melalui kemitraan penelitian. Hugging Face menghasilkan pendapatan dari platformnya dengan menawarkan sejumlah layanan cloud berbayar. Salah satu layanannya, AutoTrain, menjanjikan untuk mengurangi kerja manual yang terlibat dalam pelatihan model AI.

Hugging Face juga menawarkan Inference Endpoints, yang dapat digunakan oleh perusahaan untuk menghosting model AI yang sudah dilatih. Sebagai bagian dari kemitraan baru dengan Google Cloud, Hugging Face akan merilis integrasi untuk Vertex AI, rangkaian produk AI dari raksasa pencarian itu. Rangkaian ini mencakup tools pengembangan AI dan lebih dari 130 model dasar yang sudah siap pakai.

Menurut kedua perusahaan, pengembang akan mendapatkan kemampuan untuk mengakses Vertex AI dari antarmuka Hugging Face dengan beberapa klik. Integrasi serupa juga akan dirilis untuk Google Kubernetes Engine, layanan Kubernetes yang dikelola oleh Google. Pengembang dapat menggunakan layanan ini untuk menjalankan beban kerja AI, seperti jaringan saraf sumber terbuka yang diunduh dari Hugging Face, dalam bentuk kontainer software.

GKE memungkinkan kontainer tersebut berjalan di atas chip yang dioptimalkan untuk AI yang disediakan oleh Google melalui platform cloudnya. Google mengatakan bahwa pengguna Hugging Face akan mendapatkan akses ke Cloud TPU v5e, iterasi terbaru dari prosesor machine learning yang dikembangkan secara internal oleh Google. Chip ini berjanji untuk memberikan kinerja hingga 250% lebih baik per dolar daripada silikon generasi sebelumnya dari Google.

Chip ini juga dapat menjalankan model AI dengan latensi lebih rendah. Ke depan, Hugging Face akan menambahkan dukungan untuk A3 VMs, yang baru saja dirilis oleh Google. Setiap instance tersebut memiliki delapan kartu grafis H100 dari Nvidia Corp.

Yang dapat bertukar data satu sama lain dengan kecepatan yang jauh lebih tinggi daripada chip di instance generasi sebelumnya, yang dapat membantu meningkatkan kinerja AI. GPU di A3 VMs didukung oleh dua prosesor Intel Corp. Dan dua terabyte memori.

"Google Cloud dan Hugging Face memiliki visi untuk membuat AI Generatif lebih mudah diakses dan berdampak bagi pengembang", kata Thomas Kurian, CEO Google Cloud. "Kemitraan ini memastikan bahwa pengembang di Hugging Face akan memiliki akses ke platform AI khusus Google Cloud, Vertex AI, bersama dengan infrastruktur yang aman, yang dapat mempercepat generasi berikutnya dari layanan dan aplikasi AI". Selain opsi infrastruktur baru, Hugging Face juga akan menambahkan integrasi dengan Google Cloud Marketplace.