Google I/O

Peningkatan WebAssembly dan WebGPU untuk AI Web yang lebih cepat

Menjalankan inferensi AI secara langsung di mesin klien akan mengurangi latensi, meningkatkan privasi dengan menyimpan semua data di klien, dan menghemat biaya server. Untuk mengakselerasi beban kerja tersebut, WebAssembly dan WebGPU berevolusi untuk menggabungkan primitif tingkat rendah yang baru. Pelajari bagaimana tambahan baru tersebut membuka kemampuan hardware yang cepat untuk mempercepat inferensi AI secara signifikan serta memungkinkan library dan framework inferensi yang sangat terampil untuk menjalankan model AI yang besar secara efisien.

Menengah
Sesi teknis
Bergabunglah dengan grup komunitas

Temui para developer, gabung dengan grup lokal, dan bangun jejaring global.

Mulai
Lanjutkan belajar

Kembangkan keahlian seputar teknologi Google yang Anda sukai.

Mulai