Mejoras de WebAssembly y WebGPU para una IA de la Web más rápida
Ejecutar una inferencia de IA directamente en la máquina del cliente reduce la latencia, mejora la privacidad al mantener todos los datos en el cliente y ahorra costos de servidor. Para acelerar estas cargas de trabajo, WebAssembly y WebGPU están evolucionando para incorporar nuevas primitivas de bajo nivel. Entérate de cómo estos nuevos complementos desbloquean capacidades de hardware más rápidas para acelerar de forma significativa la inferencia de IA y permitir bibliotecas de inferencia y marcos de trabajo altamente personalizados para ejecutar modelos grandes de IA de forma eficiente.
Disertantes
Conoce desarrolladores, descubre los grupos locales y crea una red global.
Primeros pasosAumenta tus habilidades en relación con tu tecnología de Google favorita.
Primeros pasos