ウェブ AI を高速にする WebAssembly と WebGPU の機能強化
ウェブで AI 推論を加速する低レベル拡張機能により WebAssembly と WebGPU がどのように進化しているのかを学びます。
ウェブ AI を高速にする WebAssembly と WebGPU の機能強化
ウェブで AI 推論を加速する低レベル拡張機能により WebAssembly と WebGPU がどのように進化しているのかを学びます。
ウェブ AI を高速にする WebAssembly と WebGPU の機能強化
クライアント マシンで AI 推論を直接実行すると、レイテンシが減少するほか、すべてのデータがクライアントにあるためプライバシーが向上し、サーバーコストを節約できます。これらのワークロードを加速させるために、WebAssembly と WebGPU は進化して、新しい低レベル プリミティブを組み込むようになっています。これらの追加機能で高速なハードウェア機能を実現することにより、AI 推論を大幅にスピードアップし、推論用のライブラリやフレームワークを高度に調整して、大規模な AI モデルを効率的に実行できるようにする方法について学びます。
中級
テクニカル セッション