Google I/O

ウェブ AI を高速にする WebAssembly と WebGPU の機能強化

クライアント マシンで AI 推論を直接実行すると、レイテンシが減少するほか、すべてのデータがクライアントにあるためプライバシーが向上し、サーバーコストを節約できます。これらのワークロードを加速させるために、WebAssembly と WebGPU は進化して、新しい低レベル プリミティブを組み込むようになっています。これらの追加機能で高速なハードウェア機能を実現することにより、AI 推論を大幅にスピードアップし、推論用のライブラリやフレームワークを高度に調整して、大規模な AI モデルを効率的に実行できるようにする方法について学びます。

中級
テクニカル セッション
コミュニティ グループに参加する

デベロッパーに会い、地域のグループを見つけ、グローバルなネットワークを築きましょう。

始める
さらに学習する

お気に入りの Google テクノロジーに関するスキルを身につけましょう。

始める