TorchServe

Communauté d’assistance GitHub Service et surveillance du modèle

TorchServe est un outil flexible et facile à utiliser pour servir les modèles PyTorch.

Caractéristiques

Serving Quick Start – Tutoriel d’utilisation de base du serveur

Model Archive Quick Start – Tutoriel qui vous montre comment empaqueter un fichier d’archive de modèle.

Installation – Procédures d’installation

Servir des modèles – Explique comment utiliser TorchServe

API REST – Spécification sur le point de terminaison de l’API pour TorchServe

API gRPC – TorchServe prend en charge les API gRPC pour les appels d’inférence et de gestion

Packaging Model Archive – Explique comment empaqueter le fichier d’archive de modèle, à l’aide de model-archiver.

API d’inférence – Comment vérifier la santé d’un modèle déployé et obtenir des inférences

API de gestion – Comment gérer et mettre à l’échelle des modèles

Journalisation – Comment configurer la journalisation

Métriques – Comment configurer les métriques

Métriques Prometheus et Grafana – Comment configurer l’API de métriques avec des métriques au format Prometheus dans un tableau de bord Grafana

Explications Captum – Prise en charge intégrée des explications Captum pour le texte et les images

Inférence par lots avec TorchServe – Comment créer et servir un modèle avec inférence par lots dans TorchServe

Workflows – Comment créer des workflows pour composer des modèles Pytorch et des fonctions Python dans des pipelines séquentiels et parallèles

Site officiel

Tutoriel et documentation

Enter your contact information to continue reading