Article
9 min

Comment exécuter des charges de travail modernes dans le centre de données

La modernisation s’éloigne du déploiement et de la gestion des charges de travail sur les machines virtuelles et s’oriente vers un pipeline de développement logiciel entièrement intégré à l’aide de conteneurs. Cela ne signifie pas que chaque charge de travail fera l’objet de cette transition, et certainement pas toutes à la fois.

Contenu
  • Passage aux conteneurs et aux microservices

    Un changement s’est opéré dans le développement et le déploiement des applications depuis les machines virtuelles vers les conteneurs. Cette transition vers les conteneurs est attribuable à la nécessité d’augmenter la fréquence de déploiement sans compromettre la qualité ou la stabilité des applications.

  • Modèles de déploiement de plateformes de conteneurs

    Les plateformes de conteneurs peuvent être déployées sur place, en tant que machines physiques ou machines virtuelles, ainsi que dans le nuage sur les instances informatiques dans un modèle autogéré.

  • Kubernetes comme couche d’orchestration

    Avec Kubernetes comme couche d’orchestration, les charges de travail peuvent être gérées et mises à l’échelle régulièrement, peu importe leur lieu de déploiement. Si une application doit être exécutée sur place pour des raisons de sécurité ou de conformité des données, elle peut l'être.

  • Comment soutenir le déploiement de la charge de travail moderne

    Peu importe l’emplacement de vos charges de travail, le même ensemble d’outils, de processus et de contrôles vous permet de déployer des charges de travail où que vous soyez, sans recourir à des processus exclusifs ou manuels, ou même à l’infrastructure qu’ils utilisent.

Exemple illustré du centre de données et du nuage

Votre entreprise compte sur la livraison et l’optimisation de logiciels modernes, tout en offrant les meilleures expériences utilisateurs et un avantage concurrentiel, sur n’importe quel nuage et à la fine pointe. Cela comprend de nouvelles applications nuagiques natives et des applications existantes modernisées pour les environnements virtuels. Cela peut être complexe.

La modernisation s’éloigne du déploiement et de la gestion des charges de travail sur les machines virtuelles et s’oriente vers un pipeline de développement logiciel entièrement intégré à l’aide de conteneurs. Cela ne signifie pas que chaque charge de travail fera l’objet de cette transition, et certainement pas toutes à la fois. Les plateformes de machines virtuelles, comme Vmware, ont toujours leur place et la technologie comme Tanzu de VMware peut prendre en charge la coexistence des machines virtuelles et des conteneurs sur la même plateforme, avec les mêmes outils de gestion, en offrant à de nombreux clients un point d’entrée facile dans des environnements de charge de travail moderne.

L’optimisation de votre charge de travail, l’hybride, le nuage natif ou sur place, ainsi que la façon dont elle est livrée, la machine virtuelle, le conteneur, le microservice et le service sans fil, n’est pas une fin en soi. L’environnement informatique de votre charge de travail peut également faire une différence en termes de performance et de facilité de transition entre les paradigmes de déploiement.

Intel soutient l’innovation des centres de données avec certaines solutions pour lancer la modernisation des TI. Son soutien pour l’informatique virtuelle comprend une vaste sélection d’outils infonuagiques qui utilisent des fonctionnalités matérielles dans Intel® Xeon Évolutif et d’autres plateformes basées sur des processeurs pour améliorer la performance et la sécurité. La prochaine génération de processeurs Intel Xeon permettra de passer au niveau supérieur en termes de performances. Les entreprises pourront ainsi former une base d’innovation centrée sur les données. Pour atteindre l’optimisation infonuagique de base, les outils Intel sont conçus en fonction de l’optimisation de la charge de travail, de l’optimisation infonuagique et de la résolution de la migration.

Passage aux conteneurs et aux microservices

Au cours de ces dernières années, un changement s’est opéré dans le développement et le déploiement des applications depuis les machines virtuelles vers les conteneurs. Cette transition vers les conteneurs est attribuable à la nécessité d’augmenter la fréquence de déploiement sans compromettre la qualité ou la stabilité des applications. Elle offre également des avantages supplémentaires pour l’infrastructure puisque les frais généraux nécessaires pour exécuter les conteneurs sont considérablement inférieurs à ceux des machines virtuelles, ce qui empêche l’application de la couche système d’exploitation de chaque machine virtuelle. Cela permet d’accroître les rapports de consolidation tout en maintenant l’isolation de la charge de travail et la sécurité est-ouest.

Cette transition nous oblige à prioritiser la qualité et la stabilité de l’infrastructure desservant les charges de travail applicatives, notamment la plateforme de conteneurs, ainsi que l’écosystème connexe des outils interdépendants utilisés pour améliorer l’évolutivité, la gérabilité et la sécurité. Cette plateforme doit normaliser le mode d’exécution des applications, peu importe la technologie sous-jacente, que cette infrastructure réside sur place ou chez un fournisseur de services en nuage public.

Bien qu’il y ait eu plusieurs technologies d’orchestration de conteneurs différentes au cours des dernières années, le marché a normalisé les Kubernetes pour l’orchestration de conteneurs à l’avenir. Tous les fournisseurs de services en nuage public offrent des plans de contrôle Kubernetes natifs, dont les clients peuvent profiter, ce qui simplifie grandement l’effort nécessaire pour exécuter et soutenir une plateforme de conteneurs. Sinon, les clients peuvent déployer leur propre plan de contrôle de plateforme de conteneurs sur place ou utiliser des instances informatiques standard provenant de tout fournisseur de nuage.

Les microservices représentent un niveau de granularité supplémentaire par rapport aux conteneurs. En effet, une application est réduite essentiellement à ses pièces constitutives individuelles. Ainsi, vous pouvez adapter tout composant d’application individuel indépendamment des autres. Cela peut améliorer la stabilité et la performance de l’application à condition d’adapter son architecture. Un microservice peut être considéré comme un conteneur à des fins de gestion, à une échelle beaucoup plus petite, ce qui représente idéalement les composantes d’une charge de travail à une échelle atomique. Cela permet également de migrer et de moderniser les applications qui peuvent encore nécessiter une intégration aux composantes monolithiques existantes, comme une base de données dans le cadre d’une refonte des applications.

Finalement, il nous faut mentionner le service sans serveur comme une structure de déploiement pour les applications modernes. Les plateformes sans serveur déroutent l’infrastructure sous-jacente du serveur et de la plateforme de conteneurs, ce qui permet d’exécuter les fonctions à un niveau atomique. La plateforme est responsable de l’évolutivité souple afin de répondre aux exigences en matière de charge pour les fonctions et de fournir un temps de démarrage et de réponse à latence faible. Bien que les fournisseurs de services en nuage public aient élaboré des plateformes sans serveur pour les charges de travail des clients, une plateforme sans serveur ou avec des « fonctions en tant que service » peut être déployée sur place en tirant parti de la même structure de déploiement que les conteneurs, et en étant compatible avec ceux des fournisseurs de nuage public, pour assurer la portabilité dans des environnements hybrides.

Modèles de déploiement de plateformes de conteneurs

Comme mentionné, les plateformes de conteneurs peuvent être déployées sur place, en tant que machines physiques ou machines virtuelles, ainsi que dans le nuage sur les instances informatiques dans un modèle autogéré. Par ailleurs, les clients peuvent souhaiter tirer parti du plan de contrôle des hyperconvergences de l’informatique virtuelle publique pour le modèle Kubernetes en tant que service afin de prioritiser la création et le déploiement de leurs applications plutôt que la gestion de la plateforme de conteneurs sous-jacente utilisée. La normalisation de la plateforme Kubernetes pour les conteneurs nous permet de déployer une application sur n’importe quelle informatique virtuelle publique ou un environnement sur place de façon cohérente en utilisant le même ensemble d’applications et les mêmes contrôles d’automatisation dans le cadre d’un processus de CI/CD.

Kubernetes comme couche d’orchestration

Avec Kubernetes comme couche d’orchestration, les charges de travail peuvent être gérées et mises à l’échelle régulièrement, peu importe leur lieu de déploiement. Si une application doit être exécutée sur place pour des raisons de sécurité ou de conformité des données, elle peut l'être. Une autre application sans ces contraintes pourrait être déployée partout où elle est logique et dessert au mieux les besoins du client. Choisir l’emplacement de déploiement pour une application peut dépendre de la disponibilité de ressources informatiques et de mémoire ou des données requises. Par exemple, lors du déploiement de charges de travail pour soutenir les initiatives de veille économique en utilisant l’intelligence artificielle et l’apprentissage machine, le volume et la variété de sources d’entrée de données potentielles rendent le déploiement dans le nuage difficile ou coûteux pour les données non colocalisées.

D’autres types de charges de travail, qui ne dépendent pas des exigences particulières en matière de persistance des données ou de celles où les données sont répliquées entre les fournisseurs sur place et les fournisseurs de services en nuage publics, pourraient être déployés partout où c’est le plus logique. Les clients peuvent ainsi choisir le modèle de déploiement le moins onéreux pour leur application lors du déploiement, et le modifier au fur et à mesure que les coûts évoluent.

Les plateformes de conteneurs n’existent pas dans un vide. Bien que la plateforme offre les moyens de déployer, de mettre à l’échelle et de gérer vos charges de travail, elle existe dans le cadre du cycle de vie du développement logiciel (software development life cycle, SDLC) et dans les modèles de développement de l’intégration continue/de livraison continue (CI/CD). La gestion et le contrôle des versions du code source tout au long du cycle de développement nécessitent généralement des outils basés sur Git et des référentiels pour les stocker.

Le code de construction dans les binaires exécutables nécessite un référentiel d’artéfacts pour les gérer. Les outils de test et de validation automatisés garantissent que le code est prêt pour la production et répond aux exigences fonctionnelles, non fonctionnelles, de charge et de sécurité avant la promotion. Les outils CI/CD automatisent la création et la promotion pour faire passer le code des phases de développement au test, à l’AQ et, finalement, à la production. Les outils de gestion des versions fournissent des capacités A/B ou des indicateurs de fonctionnalités. Le tout repose sur des critères de sécurité à chaque niveau (code source, gestion des vulnérabilités, analyse de la sécurité des conteneurs, filet de service, etc.). Cet écosystème doit prendre en charge un modèle de déploiement hybride pour les charges de travail modernes qui couvrent les environnements sur place et virtuels et peuvent exister comme solutions SaaS.

Comment soutenir le déploiement de la charge de travail moderne

Lorsque vous déployez des solutions pour soutenir des charges de travail modernes, il est important de le faire de façon moderne, en tirant parti des outils d’automatisation et d’orchestration pour promouvoir la répétabilité et la prévisibilité, en préférant des images immuables pour améliorer la sécurité, en utilisant l’infrastructure comme code, en passant d’un impératif à une déclaration, de configurations manuelles aux configurations générées, et en intégrant la sécurité à chaque étape du processus CI/CD. Les principes GiTops vous incitent à gérer votre infrastructure de la même façon que votre code source, ce qui élimine la dérive de la configuration et assure la cohérence des charges de travail déployées dans l’environnement et l’application.

Peu importe l’emplacement de vos charges de travail, le même ensemble d’outils, de processus et de contrôles vous permet de déployer des charges de travail où que vous soyez, sans recourir à des processus exclusifs ou manuels, ou même à l’infrastructure qu’ils utilisent.

L’innovation, l’optimisation et la flexibilité sont des demandes essentielles pour les entreprises aujourd’hui. À mesure que la pression d’adaptation à la transformation numérique se renforce, les entreprises doivent travailler avec des fournisseurs de solutions avant-gardistes comme CDW qui peuvent faciliter la transformation numérique. CDW peut réduire cette complexité avec des partenaires comme Intel et VMware.

Intel fournit des solutions d’informatique virtuelle qui optimisent des charges de travail spécifiques et garantissent les meilleurs rapports de performance. Ces solutions visent à optimiser votre infrastructure en nuage grâce à la fourniture d’outils et de solutions pour aider les entreprises à rivaliser avec la concurrence d’aujourd’hui et s’imposer demain. Dans la mesure où Intel continue de miser sur ses outils infonuagiques à des fins d’optimisation et de gestion, quelles sont les perspectives des centres de données?

VMware Tanzu offre une plateforme d’applications infonuagiques natives modulaires qui facilite la construction, la livraison et l’exploitation d’applications infonuagiques natives dans un monde multinuagique. Ainsi, l’innovation se déroule selon vos modalités. Grâce à VMware Tanzu, vos développeurs sont ultra productifs et inventifs. Vous simplifiez et sécurisez la production à des fins de valeur ajoutée en continu. Vous exploitez des applications hautement disponibles et performantes qui ravissent vos clients et aident votre entreprise à prospérer.

Dans l’ensemble, le CDW et nos partenaires sont bien placés pour vous aider à passer à l’étape suivante de votre parcours de modernisation et à profiter des avantages du centre de données moderne.

À propos de l’auteur

Avec 25 années d’expérience en TI, Michael possède des connaissances approfondies sur la gestion des données, la haute disponibilité et la reprise après sinistre. À titre d’architecte de solutions principal chez CDW, Michael met l’accent sur les solutions de développement et d’exploitation, d’IA et de nuage.