WhyLogs 

PRENDRE RENDEZ-VOUS EN Whylogs est un standard open source pour la journalisation des données et du ML L’agent de journalisation Whylogs est le moyen le plus simple d’activer la journalisation, les tests et la surveillance dans une application ML/AI. L’agent léger profile les données en temps réel, collectant des milliers de métriques à partir de …

Vespa 

PRENDRE RENDEZ-VOUS EN Vespa fournit une intégration de métriques avec CloudWatch, Datadog et Prometheus/Grafana, ainsi qu’une API HTTP JSON. Voir surveillance avec démarrage rapide Grafana si vous souhaitez simplement commencer à surveiller votre système. Il existe deux approches principales pour transférer des métriques vers un système externe : Demander au système externe d’extraire les métriques …

Triton Inference Server 

PRENDRE RENDEZ-VOUS EN Triton Inference Server fournit une solution d’inférence cloud et Edge optimisée pour les CPU et les GPU. Triton prend en charge un protocole HTTP/REST et GRPC qui permet aux clients distants de demander une inférence pour tout modèle géré par le serveur. Pour les déploiements périphériques, Triton est disponible sous forme de …

Triton Inference Server 

PRENDRE RENDEZ-VOUS EN Triton Inference Server fournit une solution d’inférence cloud et Edge optimisée pour les CPU et les GPU. Triton prend en charge un protocole HTTP/REST et GRPC qui permet aux clients distants de demander une inférence pour tout modèle géré par le serveur. Pour les déploiements périphériques, Triton est disponible sous forme de …

TorchServe

PRENDRE RENDEZ-VOUS EN TorchServe est un outil flexible et facile à utiliser pour servir les modèles PyTorch. Caractéristiques Serving Quick Start – Tutoriel d’utilisation de base du serveur Model Archive Quick Start – Tutoriel qui vous montre comment empaqueter un fichier d’archive de modèle. Installation – Procédures d’installation Servir des modèles – Explique comment utiliser …

TensorFlow Serving 

PRENDRE RENDEZ-VOUS EN TensorFlow Serving est un système de service flexible et hautes performances pour les modèles d’apprentissage automatique, conçu pour les environnements de production. TensorFlow Serving facilite le déploiement de nouveaux algorithmes et expériences, tout en conservant la même architecture de serveur et les mêmes API. TensorFlow Serving offre une intégration prête à l’emploi …

Tempo 

PRENDRE RENDEZ-VOUS EN Tempo est un SDK python destiné aux data scientists pour les aider à mettre leurs modèles en production. Il a 4 objectifs principaux : Adapté à la science des données. Runtimes enfichables. Composants d’inférence Python personnalisés. Logique d’orchestration puissante. Caractéristiques Packagez vos artefacts de modèle entraînés dans des environnements d’exécution de serveur …

Streamlit 

PRENDRE RENDEZ-VOUS EN Streamlit est une bibliothèque Python open source qui facilite la création et le partage de superbes applications Web personnalisées pour l’apprentissage automatique et la science des données. En quelques minutes seulement, vous pouvez créer et déployer de puissantes applications de données – alors commençons ! Caractéristiques Chez Streamlit, nous aimons avancer rapidement …

Seldon

PRENDRE RENDEZ-VOUS EN Seldon core convertit vos modèles ML (Tensorflow, Pytorch, H2o, etc.) ou wrappers de langage (Python, Java, etc.) en microservices de production REST/GRPC. Seldon gère l’évolutivité vers des milliers de modèles d’apprentissage automatique de production et fournit des capacités avancées d’apprentissage automatique prêtes à l’emploi, notamment des métriques avancées, la journalisation des demandes, …

Redis-AI 

PRENDRE RENDEZ-VOUS EN RedisAI est un module Redis permettant d’exécuter des modèles de Deep Learning/Machine Learning et de gérer leurs données. Son objectif est d’être un « cheval de bataille » pour le service de modèles, en fournissant une prise en charge prête à l’emploi des frameworks DL/ML populaires et des performances inégalées. RedisAI simplifie …

Enter your contact information to continue reading