Google I/O

Mejoras de WebAssembly y WebGPU para una IA de la Web más rápida

Ejecutar una inferencia de IA directamente en la máquina del cliente reduce la latencia, mejora la privacidad al mantener todos los datos en el cliente y ahorra costos de servidor. Para acelerar estas cargas de trabajo, WebAssembly y WebGPU están evolucionando para incorporar nuevas primitivas de bajo nivel. Entérate de cómo estos nuevos complementos desbloquean capacidades de hardware más rápidas para acelerar de forma significativa la inferencia de IA y permitir bibliotecas de inferencia y marcos de trabajo altamente personalizados para ejecutar modelos grandes de IA de forma eficiente.

Intermedio
Sesión técnica
Únete a un grupo de la comunidad

Conoce desarrolladores, descubre los grupos locales y crea una red global.

Primeros pasos
I/O Connect

Explora, conéctate con colegas y familiarízate con los últimos productos.