Jax  

Communauté d’assistance GitHub Outils d’optimisation

JAX est Autograd et XLA, réunis pour une recherche en apprentissage automatique haute performance.

Avec sa version mise à jour d’Autograd, JAX peut automatiquement différencier les fonctions natives Python et NumPy. Il peut se différencier par des boucles, des branches, des récursions et des fermetures, et il peut prendre des dérivées de dérivées de dérivées. Il prend en charge la différenciation en mode inverse (c’est-à-dire la rétropropagation) via grad ainsi que la différenciation en mode direct, et les deux peuvent être composés arbitrairement dans n’importe quel ordre.

Caractéristiques

JAX utilise XLA pour compiler et exécuter vos programmes NumPy sur des GPU et des TPU. La compilation s’effectue sous le capot par défaut, les appels de bibliothèque étant compilés et exécutés juste à temps. Mais JAX vous permet également de compiler juste à temps vos propres fonctions Python dans des noyaux optimisés pour XLA à l’aide d’une API à fonction unique, jit. La compilation et la différenciation automatique peuvent être composées arbitrairement, afin que vous puissiez exprimer des algorithmes sophistiqués et obtenir des performances maximales sans quitter Python. Vous pouvez même programmer plusieurs GPU ou cœurs TPU à la fois à l’aide de pmap et différencier l’ensemble.

Site officiel

Tutoriel et documentation

Enter your contact information to continue reading