Article
5 min

Comment adopter la nouvelle génération de technologie de centre de données hybride

La plupart des entreprises fonctionnent de façon classique, exécutant des serveurs virtuels et peut-être quelques applications dans le nuage. Maintenant, nous devons commencer à penser à la prochaine génération de technologie indépendante du nuage.

Un conférencier principal, à l’événement BTEX, parle des défis qui se présentent sur la création d’un centre de données.

« Alors que de nouvelles technologies comme le nuage, la périphérie et l’IdO arrivent, nous nous retrouvons à aller dans différentes directions », explique Chris Angell, architecte de solutions principal, CDW Canada, à l’Exposition sur les technologies d’affaires (BTEX) 2022 de CDW. « Le rôle du technologue classique a beaucoup changé. Alors, où comblons-nous cet écart? »

Évolution du centre de données

« Tout a commencé avec l’ordinateur central », dit M. Angell. « Lorsque l’ordinateur central est arrivé sur le marché, cela a donné naissance à la virtualisation et à la conteneurisation. Bien sûr, ensuite est arrivé le marché des micro-ordinateurs, où nous avions un serveur visible avec une application et un système d’exploitation. Puis, la virtualisation est arrivée. La virtualisation est vraiment le moment où est survenu le changement de paradigme. Nous avons pu en faire beaucoup plus avec beaucoup moins. »

« Au fur et à mesure que des technologies comme l’infrastructure convergente sont arrivées, nous avons commencé à vraiment voir une division entre différents groupes de stockage et d’applications qui étaient traditionnellement gérés. Alors, l’infrastructure hyperconvergée (HCI) est arrivée, et s’est imposée comme un grand changement de paradigme quant à la façon dont nous la gérons. Nous avons maintenant cet unique panneau de verre destiné à la gestion de l’infrastructure entière, et cela nous a beaucoup facilité la vie. Cependant, l’informatique en nuage est arrivée et a vraiment changé cela. »

« Avec l’arrivée de l’informatique en nuage, les gens ont commencé à déplacer les charges de travail de leur centre de données classique vers le nuage. Le problème est que les serveurs virtuels ne sont pas aussi portables qu'ils devraient l'être. Sur place, ce n’est pas un problème; vous pouvez déplacer les charges de travail entre différents groupes, différents serveurs avec un temps et des ressources très limités. Mais vous ne pouvez pas déplacer des machines virtuelles (VM) entre différents nuages. » C’est ainsi que le nuage hybride s’est imposé.

« Traditionnellement, la HCI n'a exécuté que des serveurs virtuels », explique M. Angell. « Mais quelques fournisseurs font des choses vraiment géniales pour changer cela. Des approches comme la conteneurisation des applications natives sont maintenant de plus en plus répandues. C’est ce que je classe comme étant la HCI 2.0. Nous sommes passés des charges de travail virtuelles classiques à l’exécution de charges de travail plus indépendantes du nuage. »

Comment l’informatique a-t-elle changé?

« La plupart des entreprises fonctionnent toujours de façon classique, exécutant des serveurs virtuels, peut-être quelques applications dans le nuage, mais c’est vraiment tout. Maintenant, nous devons vraiment commencer à penser à la prochaine génération d’un environnement indépendant du nuage. Alors que ces nouvelles plateformes HCI se présentent, nous devons être en mesure d’exécuter les applications, qu’il s’agisse de fonctions de conteneurisation ou sans serveur, en dehors du nuage classique et de les ramener sur place », explique M. Angell.

« Maintenant, l’avantage que la conteneurisation nous procure est la portabilité. Ces applications sont de tailles extrêmement réduites et peuvent se déplacer librement entre différents environnements, contrairement aux serveurs virtuels, qui sont de tailles de l’ordre du téraoctet et qui ne sont pas vraiment faciles à déplacer entre différents fournisseurs de services en nuage ou même différents centres de données. »

Où exécutons-nous nos charges de travail?

« Pour les applications qui nécessitent une latence ultra-faible, la périphérie est parfaitement logique », explique M. Angell. « Si vous êtes dans une voiture autonome et que vous conduisez sur l’autoroute, et que vous décidez que vous devez freiner, voulez-vous vraiment que cette décision soit prise dans le nuage, qui est à des milliers de kilomètres, ou voulez-vous qu’elle soit prise localement dans le véhicule? »

« L’IA jouera également un rôle ici. L’IA peut fonctionner en périphérie, mais elle fonctionnera bien mieux dans le nuage. L’inférence en périphérie est absolument essentielle, vous pouvez établir ces arbres décisionnels localement. Alors que des centaines de milliers de transactions s’effectuent à la périphérie, elles prendront des décisions localement, mais en fin de compte, vous allez vouloir traiter cette information. »

« Disons que vous générez des données de l’ordre de 3 To par jour à partir d’événements bruts. Vous ne voulez pas transmettre ces 3 To de données par jour dans un lac de données, car cela prendra du temps et coûtera très cher. Nous devons donc filtrer ces événements en périphérie, afin que vous n’envoyiez que des données précieuses dans le nuage. Elles peuvent alimenter votre lac de données et à la fin être utilisées par l’IA dans le nuage. »

Défis liés à la construction du nouveau centre de données

Dans sa présentation, Chris Angell a souligné cinq nouveaux défis qui accompagnent un centre de données hybride.

Fiabilité. Selon M. Angell, ce n’est plus une question de matériel et de logiciel. « Nous parlons de la fiabilité des applications, lesquelles, dans un centre de données classique, sont des applications monolithiques vivant dans des machines virtuelles. Lorsque nous adopterons la prochaine génération de centres de données qui favoriseront l’industrie 4.0, nous examinerons la conteneurisation, les fonctions de microservices et la gamme complète d’outils qui sont offerts. »

Sécurité. Dans de nombreuses organisations, il existe une division entre les techniciens des TI et des TO en ce qui a trait à l’IdO. « Les techniciens des TO connaissent très bien leur domaine », dit M. Angell. « Ils comprennent comment fonctionne le flux de production, ce qui n’est pas la spécialité des techniciens des TI. Nous devons donc établir des garde-corps autour de ce que font les technologues opérationnels et ce que font les informaticiens traditionnels. Construire un tissu autour de ces deux entités, où vous pouvez avoir une délégation de contrôle pour ces différents groupes, deviendra de plus en plus important. »

Cohérence. « Je suis un grand fervent de ce qu’on appelle une seule façon, toujours la même », dit M. Angell. « Cette philosophie tire parti de technologies comme Terraform pour la gestion de l’infrastructure, afin que vous puissiez créer des livres de jeux qui vous permettent de déployer des machines virtuelles ou des applications à grande échelle. Vous utilisez une approche scénarisée. En mettant en œuvre cette méthodologie unidirectionnelle, vous obtenez une cohérence dans l’ensemble. »

Évolutivité. Si vous tirez parti des technologies sans serveur, vous n’avez plus à vous soucier de l’utilisation des ressources, car elles nécessitent peu de temps pour démarrer, dit M. Angell. « Les petites applications ne nécessitent que quelques Mo de mémoire vive et quelques cycles de processeur, contrairement aux machines virtuelles classiques qui vont fonctionner à plein régime, qu’elles aient besoin ou non des ressources. »

Accessibilité. Cela implique de donner à différents groupes œuvrant au sein de votre entreprise l’accès à différentes technologies. « Vous voulez que vos technologues opérationnels se concentrent sur les aspects qui se situent au niveau de la production, et vous voulez que vos informaticiens traditionnels se concentrent sur les TI », dit M. Angell. « Vous devez également offrir un accès à des personnes responsables de la sécurité pour obtenir cette observabilité. »