Comment les NIM NVIDIA® intègrent-ils vitesse, échelle et simplicité à votre projet de l’IA?
Article
6 min

Comment les NIM NVIDIA® intègrent-ils vitesse, échelle et simplicité à votre projet de l’IA?

Les NIM sont de petits microservices autonomes exécutés dans un conteneur Docker. NVIDIA les rend faciles à déployer, rationalise les moyens visant à tirer parti des ressources de l’UTG et permet aux consommateurs de déployer des NIM à l’aide de Helm Charts, un gestionnaire de paquets pour les conteneurs.

Contenu
  • Qu’est-ce que la plateforme NIM de NVIDIA?

    NIM signifie « NVIDIA Inference Microservice », disponible dans des configurations simples à complexes, mais toutes consommables de plusieurs façons : à la demande, dans le nuage public, sur place et même sur votre ordinateur portable dans les cas des déploiements de services plus petits.

  • Comment les NIM simplifient-ils le cheminement de l’IA vers une production accrue?

    Les NIM comportent trois aspects principaux qui peuvent aider les organisations à éliminer les complexités liées aux étapes du prototypage, du déploiement et de la production d’un projet de l’IA.

  • Tirer parti de la puissance des NIM grâce à CDW

    La pratique d’IA de CDW offre des solutions utilisant l’architecture d’IA, la visualisation professionnelle et les offres de virtualisation de NVIDIA. De la conception de la solution adaptée à votre entreprise à l’utilisation de la technologie de pointe de NVIDIA, nous pouvons vous soutenir dans votre parcours complet visant à tirer parti de l’IA.

Technicien de serveur TI mature utilisant un ordinateur portable pour réparer un ordinateur central de centre de données dans une salle de serveur.

Récemment, j’ai assisté à une séance au QG de NVIDIA à Santa Clara et j’ai parlé à un certain nombre de professionnels techniques importants de NVIDIA concernant l’état de l’IA et ce que NVIDIA fait pour rendre l’IA plus facile à consommer pour les organisations.

L’une des technologies clés m’a interpellé alors que je m’éloignais de ces discussions, la plateforme de NIM de NVIDIA. À l’heure actuelle, les NIM constituent un catalogue de services préfabriqués consommables de l’IA dans un format prédéfini. 

Que sont les NIM de NVIDIA?

Les NIM sont de petits microservices autonomes exécutés dans un conteneur Docker. NVIDIA les rend faciles à déployer, rationalise les moyens visant à tirer parti des ressources de l’UTG et permet aux consommateurs de déployer des NIM à l’aide de Helm Charts, un gestionnaire de paquets pour les conteneurs.

Modèles des agents NIM de NVIDIA

Les modèles des agents NIM de NVIDIA sont des services préconstruits et plus complexes composés d’un ou de plusieurs NIM ainsi que d’autres services modélisés. Ils se connectent parfois à d’autres services externes par le biais d’interfaces de programmation d'application (API). Les modèles conçus avec les NIM sont généralement plus facilement consommables et peuvent être ciblés sur une industrie ou un secteur d’activité particulier. Ils peuvent aider à réduire le temps nécessaire pour fournir des microservices d’IA avec une plus grande cohérence.

Cette façon très agile de créer des outils d’IA comporte quelques aspects clés qui la différencient des autres façons de déployer des services, mais avant de commencer, permettez-moi d’abord de définir ce que sont les NIM et certaines des façons dont nous pourrions commencer à les utiliser.

Qu’est-ce que la plateforme NIM de NVIDIA?

NIM signifie « NVIDIA Inference Microservice », soit microservice d’inférence de NVIDIA. Ces microservices sont offerts en plusieurs configurations, de très simples à complexes, mais tous sont consommables de plusieurs façons différentes : à la demande, dans le nuage public, sur place et même sur votre ordinateur portable dans les cas des déploiements de services plus petits (et selon les caractéristiques de votre ordinateur portable). 

/

Le diagramme ci-dessus montre où se situent les NIM de NVIDIA dans la pile logicielle du déploiement des applications et des services de l’IA. Les NIM de NVIDIA peuvent être déployés comme une partie intégrante d’un plus grand modèle pour créer un service unique composé de microservices NIM qui fonctionnent en collaboration comme une application plus complexe. 

Un exemple de cela serait de tirer parti du modèle « PDF vers balado » qui consiste en plusieurs NIM afin de créer un service qui peut prendre des données textuelles et présenter ce contenu comme un balado pour que les données puissent être consommées de façon audio.

Comment les NIM simplifient-ils le cheminement de l’IA vers une production accrue?

Les NIM comportent trois aspects principaux qui peuvent aider les organisations à éliminer les complexités liées aux étapes du prototypage, du déploiement et de la production d’un projet de l’IA.

1. Être déployés sur toutes les plateformes en facilitant l’évolutivité

Au besoin, les NIM peuvent passer de cas d’utilisation à plus petite échelle à des solutions destinées à très grandes entreprises, ce qui m’amène à la première raison pour laquelle je crois que les NIM sont précieuses pour les organisations : la portabilité.

Comme un NIM peut être déployé à la demande, dans le nuage public, sur place et sur un appareil local, il est facile de déployer rapidement des services en tant que validation de principe. Il peut ensuite être refactorisé et migré vers le nuage public ou le centre de données où une puissance supplémentaire est requise. 

Parce qu’il est extrêmement facile à déplacer, notamment durant les processus de prototypage, d’assurance de la qualité et de déploiement, mais aussi parce qu’il simplifie le processus de mise à l’échelle, les NIM nous permettent de commencer petit, d’innover et d’investir lorsque l’outil est prometteur.

/

Un NIM se compare aisément à une machine virtuelle où un serveur classique a été virtualisé.  Le NIM rend abstraite une grande partie de la complexité associée au déploiement d’un conteneur Docker tout en tirant parti du matériel UTG sous-jacent.

Les NIM offrent une facilité d’administration dans le cadre de modèles plus grands à l’aide des ordinateurs portables Jupyter, offrant des méthodes de déploiement cohérentes et rationalisées.

2. Adapter et affiner les modèles d’IA grâce à une approche beaucoup plus simple

La simplicité qu’ils offrent constitue la deuxième raison pour laquelle je pense que nous devrions investir du temps à explorer la puissance des NIM. NVIDIA a mis à la disposition des clients plusieurs modèles de services dès leur sortie. La création d’un service à l’aide d’un modèle de base ne vise pas seulement à mettre le modèle en service, mais aussi la façon dont vous voulez que vos utilisateurs utilisent ce modèle et interagissent avec celui-ci. 

Il peut être simple d’utiliser un robot conversationnel, mais une fois que vous voulez qu’il interagisse avec un ensemble de données privées ou que la sortie soit validée par un deuxième modèle, les choses peuvent se compliquer très rapidement. NVIDIA a résolu un certain nombre de ces problèmes en créant un catalogue de services à utiliser tels quels ou comme référence afin de créer des versions similaires, mais plus personnalisées pour vos utilisateurs.

3. Accéder à une puissante infrastructure d’IA là où vous en avez besoin

Il existe plusieurs autres qualités qui facilitent la construction et la consommation de l’IA en tirant parti des NIM, mais la dernière que je vais présenter ici est d’aider à accélérer le développement de l’IA en commercialisant l’infrastructure nécessaire pour construire localement, dans le centre de données, en périphérie ou dans un nuage public. 

NVIDIA est en mesure de recommander les modèles et les options de taille de modèle qui fonctionneront le mieux avec votre matériel attribué. Les NIM créent une plateforme de consommation plutôt que de devoir gérer l’installation de dépendances complexes et des conditions préalables. 

Je m’engage de plus en plus avec les organisations pour souligner l’importance d’adopter des plateformes qui rationalisent le déploiement et la consommation des services. Les NIM sont spécialement conçus pour soutenir et accélérer efficacement vos initiatives de l’IA.

Ainsi, en adoptant un moyen agile, portable et simplifié de création, de test et de déploiement d'actifs d’IA, NVIDIA a fourni aux organisations une plateforme capable de faire progresser leurs projets d’IA en se concentrant sur les résultats commerciaux identifiés plutôt que de se soucier de la « plomberie » des systèmes informatiques. 

Tirer parti de la puissance des NIM grâce à CDW

Je vous recommande de consulter le site Web build.nvidia.com pour consulter le catalogue et les services NIM de NVIDIA par vous-même. Si vous avez besoin d’aide pour créer des cadres de gouvernance des données, pour concevoir une infrastructure de l’IA plus grande dans le nuage ou sur place, ou pour organiser des ateliers d’IA, veuillez communiquer avec CDW et notre équipe d’architectes de solutions pour vous aider.

La pratique d’IA de CDW offre des solutions innovantes utilisant l’architecture d’IA, la visualisation professionnelle et les offres de virtualisation de NVIDIA. De la conception de la solution adaptée à votre entreprise à l’utilisation de la technologie de pointe de NVIDIA, nous soutenons les organisations dans leur parcours complet visant à tirer parti de l’IA.

KJ Burke

Stratège principal en technologie

KJ Burke est un architecte d’infrastructure informatique novateur et motivé qui possède de solides compétences en communications et en relations interpersonnelles. Il occupe actuellement le poste de stratège principal en technologie chez CDW Canada, avec plus de 20 ans d’expérience dans les technologies de l’information, et notamment dans la planification et le déploiement de technologies qui visent à améliorer les processus commerciaux et à générer une valeur mesurable.