Google I/O

Améliorations de WebAssembly et WebGPU pour une IA web plus rapide

L'exécution de l'inférence de l’IA directement sur les machines clientes réduit la latence, améliore la confidentialité en conservant toutes les données sur le client et réduit les coûts de serveur. Pour accélérer ces charges de travail, WebAssembly et WebGPU évoluent pour intégrer de nouvelles primitives de bas niveau. Découvrez comment ces nouveaux ajouts débloquent des capacités matérielles rapides pour accélérer considérablement l’inférence de l’IA et permettre aux bibliothèques et aux frameworks d’inférence hautement optimisés d’exécuter efficacement de grands modèles d’IA.

Intermédiaire
Session technique
Rejoignez un groupe de la communauté

Rencontrez des développeurs, découvrez des groupes près de chez vous et renforcez votre réseau mondial.

Premiers pas
Continuer votre apprentissage

Développez vos compétences autour de votre technologie Google préférée.

Premiers pas