Google I/O

Melhorias no WebAssembly e WebGPU para IA para Web mais rápida

Executar inferências de IA diretamente nas máquinas dos clientes reduz a latência, melhora a privacidade ao manter todos os dados com o cliente e economiza custos com servidor. Para acelerar essas cargas de trabalho, o WebAssembly e WebGPU estão evoluindo para incorporar novos itens primitivos de baixo nível. Saiba como essas novas adições desbloqueiam recursos de hardware rápido para acelerar significativamente inferências de IA e habilitar bibliotecas e frameworks de inferências altamente ajustadas para executar de modo eficiente modelos grandes de IA.

Intermediário
Sessão técnica
Participe de um grupo da comunidade

Conheça desenvolvedores, descubra grupos regionais e construa sua rede global.

Começar
Não pare de aprender

Expanda suas habilidades e domine as tecnologias do Google que você mais gosta.

Começar