L’hyperconvergence a un coût, mais rapporte

par | Fév 20, 2019 | Expérience | 0 commentaires

Un coût relativement élevé à l’acquisition, mais de substantiels gains opérationnels et organisationnels. Pour System Solutions, l’hyperconvergence mérite une analyse fine.

L’hyperconvergence est encore loin de se généraliser dans les data centers d’entreprises. En cause, son prix; un prix par noeud supérieur aux architectures trois tiers classiques (serveur, virtualisation, stockage). Mais si le prix peut être dissuasif, les gains sont substantiels, relève System Solutions qui préconise une analyse fine.

Oui au principe de l’hyperconvergence. Les clients sont intéressés, assure Joaquim Neves, Solutions Architect, System Solutions. «Si combiner le calcul, le stockage et le réseau dans un seul élément est utile, virtualiser ces ressources apporte la vraie valeur à l’ensemble. Le taux d’utilisation des ressources s’en trouve amélioré, ce qui permet de contenir les coûts. C’est en particulier vrai pour les ressources de stockage, dont l’utilisation a longtemps posé un problème, la virtualisation des serveurs étant largement pratiquée...»

Sensibiliser le responsable financier

Onéreuse, l’hyperconvergence ? A l’achat, oui. Mais elle permet de réaliser des économies tant opérationnelles qu’organisationnelles. Par définition, l’hyperconvergence facilite l’expansion de la capacité du data center en permettant d’accroître la capacité de traitement et de stockage par simple ajout de nœuds additionnels.

Des économies, donc. Et à tous niveaux. L’implémentation, par exemple, se réduit à quatre heures environ, car ce sont des «appliances» préconfigurées en usine alors qu’une solution traditionnelle nécessite des jours d’intégration sur site. Quant à la gestion quotidienne de la solution HCI, elle est orientée «VM-Centric»; elle permet i de se focaliser sur les applications et non pas sur des ressources infrastructures (volumes / LUNs…). Quant à la courbe d’apprentissage pour l’administrateur IT, elle est facilitée car il utilise une interface unique de gestion. Enfin, la procédure de mise à jour est écourtée car en «upgradant» les nœuds de proche en proche (rolling upgrade), on met ainsi à jour l’ensemble du stack (calcul et stockage). En résumé,  une infrastructure HCI (Hyper-Converged Infrastructure) réduit considérablement les coûts opérationnels (OPEX), elle est sans aucun doute une excellente solution pour les clients qui souhaitent conserver une infrastructure virtualisée et performante «On-Premises».

«Si vous avez des applications dont la consommation évolue régulièrement ou si vous envisagez de déployer des applications progressivement, l’adoption de l’hyperconvergence est une réponse, enchaîne Robert Roux, CEO, System Solutions. Elle vous permet de faire évoluer la capacité de votre data center au fur et à mesure que la charge de travail augmente, alignant ainsi les dépenses d’infrastructure sur la valeur de la charge de travail.»

Aussi, le bon interlocuteur n’est pas forcément le responsable IT, lié à un budget, constate encore Robert Roux. «L’investissement peut fort bien ne pas s’inscrire dans le budget du responsable du système d’information, alors que le responsable financier, lui, considérera davantage la question sous l’angle du retour sur investissement, partant qu’il y aura des gains à différents niveaux.»

Des gains, certes, qui ne seront pas tout de suite visibles, mais qui seront bel et bien au rendez-vous, renchérit Joaquim Neves. «Déjà, avec l’hyperconvergence, il n’est pas nécessaire d’acheter dès le départ la capacité totale requise pour un projet à deux ou trois ans. C’est un avantage radical par rapport aux approches traditionnelles et par rapport aux approches scale-up dans lesquelles il faut dès le départ investir dans un serveur puissant ou dans une baie de stockage coûteuse. Bref, cela permet de bâtir des infrastructures dont les attributs de coûts s’approchent de ceux des clouds publics. En ce sens, l’hyperconvergence est une étape vers les clouds publics.»

Si, depuis deux ou trois ans, la bataille de l’hyperconvergence se joue essentiellement sur le terrain de l’optimisation et de la flexibilité des infrastructures, force est de constater qu’avec l’évolution des plates-formes, elle se déplace progressivement sur le terrain des clouds.

Plus qu’une infrastructure….

Pour System Solutions, la tendance est forte. Pourtant, nuance Joaquim Neves, l’hyperconvergence ne sera pas universelle. «Toutes les architectures logicielles d’entreprise ne sont pas à même de tirer parti pleinement de l’évolutivité d’une plate-forme distribuée. Il y a aussi des inefficacités inhérentes à l’architecture hyperconvergée…» Ainsi, certaines applications nécessitent plus de ressources de calcul que de stockage, tandis que d’autres requièrent davantage de stockage. Il faut donc s’assurer que l’infrastructure HCI offrira le bon équilibre de ressources avant de se lancer. De même, il faut garder en mémoire que sur chaque nœud, le stockage consomme une partie des ressources processeur. Il faut donc vérifier que pour certaines applications licenciées au nombre de CPU, cela ne se traduise pas par un surcoût de licence.

Il ne faut pas non plus sous-estimer les changements que peut entraîner l’hyperconvergence sur les équipes, indique encore Robert Roux. «Le déploiement et la supervision, la sauvegarde et les DRP sont naturellement affectés par une infrastructure HCI. Quid des ressources en place ?» Bref, l’hyperconvergence est bien plus qu’une infrastructure. En la déployant, l’entreprise peut se concentrer sur l’objectif business qu’elle cherche à atteindre. C’est pourquoi System Solutions insiste sur les gains potentiels. A propos des sauvegardes précisément, certains responsables IT, après une période de test, ont fait le choix de miser sur le mécanisme intégré, faisant de celui-ci leur outil de sauvegarde primaire. Et de miser aussi sur la rapidité des restaurations -quelques minutes pour récupérer les backups de toute une semaine, avec analyse des fichiers VM par VM…

 

Hyperconvergence : les raisons d’y aller

IDC constate que les entreprises pionnières dans cette transformation de l’informatique critique se concentrent sur trois objectifs :

– moderniser l’infrastructure informatique de base afin de répondre aux besoins exponentiels en termes de performances et d’évolutivité des systèmes critiques sans sacrifier l’intégrité, la sécurité ou la fiabilité;

– automatiser l’allocation et la mise à disposition de ressources informatiques grâce à l’adoption de modèles opérationnels cloud afin de raccourcir les délais nécessaires au développement, au déploiement et à la mise à niveau des systèmes d’engagement et de vision existants qui sont au cœur de la transformation numérique;

– transformer le département informatique et ses processus afin que le personnel agisse comme un vecteur d’innovation et que les efforts de transformation soient complémentaires, résilients, évolutifs et sécurisés.

 

Dans solutions Magazine de Mars

Solutions Magazine consacrera bientôt des dossiers spéciaux sur : GDPR, Collaboration & Video, Home Protection

> Je désire de la visibilité sur ce sujet
> M'abonner au mensuel papier

Pub