Peningkatan WebAssembly dan WebGPU untuk AI Web yang lebih cepat
Pelajari cara WebAssembly dan WebGPU berkembang dengan ekstensi tingkat rendah yang mengakselerasi inferensi AI di web.
Peningkatan WebAssembly dan WebGPU untuk AI Web yang lebih cepat
Pelajari cara WebAssembly dan WebGPU berkembang dengan ekstensi tingkat rendah yang mengakselerasi inferensi AI di web.
Peningkatan WebAssembly dan WebGPU untuk AI Web yang lebih cepat
Menjalankan inferensi AI secara langsung di mesin klien akan mengurangi latensi, meningkatkan privasi dengan menyimpan semua data di klien, dan menghemat biaya server. Untuk mengakselerasi beban kerja tersebut, WebAssembly dan WebGPU berevolusi untuk menggabungkan primitif tingkat rendah yang baru. Pelajari bagaimana tambahan baru tersebut membuka kemampuan hardware yang cepat untuk mempercepat inferensi AI secara signifikan serta memungkinkan library dan framework inferensi yang sangat terampil untuk menjalankan model AI yang besar secara efisien.
Menengah
Sesi teknis