lundi 29 novembre 2010

La virtualisation engendre la virtualisation : optimiser les performances et l’agilité opérationnelle

La virtualisation transforme les périphériques physiques en un ensemble de pools de ressources indépendants des ressources physiques sur lesquelles ils fonctionnent. Cette isolation facilite la mise en œuvre d’une analyse, d’une supervision et d’une gestion normalisées des ressources. Cela supprime également les problèmes économiques et opérationnels des silos d’infrastructure. En définitive, la virtualisation offre des avantages exceptionnels : évolutivité, facilité de gestion, économies de coûts, utilisation et disponibilité optimisées, résilience du système, déploiement rapide et agilité informatique.

Introduction

La virtualisation révolutionne la manière dont les services informatiques sont fournis. Elle va changer en profondeur la méthode employée par les entreprises pour les utiliser, y accéder et les payer. Pourquoi ? Une fois la virtualisation mise en œuvre dans un domaine informatique spécifique, elle devient virale. Virtualiser une ressource informatique particulière engendre la virtualisation d’autres ressources informatiques, et ainsi de suite. Les services informatiques sont alors délivrés de manière plus efficace, créant ainsi des occasions d’élargir la virtualisation et transformer l’environnement pour davantage d’impact commercial.

Analyse de la situation

Les services informatiques sont confrontés à une multitude de défis, notamment les coûts élevés de la prestation de services, le fait de ne pouvoir suivre le rythme de la croissance des données, les vulnérabilités en termes de sécurité, les problèmes énergétiques et bien davantage. Le contexte économique actuel renforce la pression exercée sur les budgets et ressources informatiques. Cependant, les DSI doivent toujours offrir des services rentables et de qualité en réponse à de nouvelles stratégies métier, et ce avec agilité.
La gestion informatique est la plus concernée par cette « triade informatique » : atténuer les risques pour les activités commerciales existantes, raccourcir le cycle de développement des innovations et réduire les coûts pour financer ces innovations. Il s’avère souvent difficile de réaliser ces trois objectifs. Il est donc possible que certains services sacrifient certains domaines au profit d’autres.
L’informatique devrait idéalement être orientée vers les stratégies métier offrant un avantage concurrentiel, par exemple proposer des applications métier, créer de nouveaux réseaux de distribution, optimiser les processus pour les employés et les partenaires commerciaux et bien d’autres. Malheureusement, l’impératif pour le service informatique de rester opérationnel en permanence et de gérer l’activité de l’entreprise absorbe 70 % de son temps et de ses ressources, n’en laissant que 30 % pour les projets visant à modifier l’activité pour optimiser sa compétitivité.
Le déséquilibre résulte souvent d’une prolifération informatique. Des silos de solutions logicielles et de matériel propriétaires et inflexibles s’avèrent inefficaces et coûteux. Ces ressources sont souvent sous-exploitées et créent de multiples points de défaillance. Cette situation engendre également de l’inefficacité opérationnelle : il est nécessaire de gérer une infrastructure plus importante, des activités réactives de « gestion de crise », et d’offrir des niveaux de service de base.
La situation réelle crée des conflits entre le service commercial et le service informatique. Les responsables opérationnels souhaitent un rapide retour sur investissement (ROI) et des niveaux de service plus élevés. Pour obtenir des niveaux de service élevés, le service informatique pourrait sur-provisionner ou créer des solutions dédiées pour garantir les performances. Cependant, cela rentre en conflit avec les exigences en termes de ROI et avec les besoins des responsables opérationnels (et du service informatique) de réduire les coûts et d’engendrer une agilité opérationnelle.
Le résultat ? Des équipes informatiques sous pression tentent d’atteindre les objectifs de la triade informatique tout en maintenant une qualité de service élevée pour leurs partenaires commerciaux. De la même manière, leurs partenaires commerciaux pourraient ne pas être satisfaits si la qualité de service est sacrifiée au profit de la résolution d’autres problèmes.
C’est ici que la virtualisation entre en jeu. Virtualiser les ressources permet d’abolir les silos. Les coûts peuvent alors être réduits, l’efficacité et l’agilité opérationnelles optimisées et les risques atténués. Une infrastructure virtualisée peut aussi contribuer à l’agilité informatique en matière de maintien des niveaux de service. Enfin, la virtualisation peut faciliter une inversion dans le ratio 70/30 entre l’administration et l’innovation.

La virtualisation

Qu’est-ce que la virtualisation ?

En des termes très simples, la virtualisation constitue une abstraction de la réalité, le processus d’extraire le logique du physique, pour transformer les ressources physiques en un pool de ressources logiques indépendantes. Comme mentionné précédemment, elle peut révolutionner l’informatique car elle transforme la manière dont les services sont fournis, permettant ainsi une refonte de l’activité.

Modèle de maturité de la virtualisation

Alors, de quelle manière la virtualisation transforme-t-elle l’activité ? Il s’agit d’une approche itérative qui survient avec le temps. De petites étapes entraînent des avantages entraînant d’autres étapes, ainsi de suite. À mesure que les entreprises progressent vers des étapes spécifiques, les coûts sont davantage optimisés et l’efficacité des processus se renforce.
Pour illustrer ce concept, le modèle de maturité de la virtualisation de l’ESG (Enterprise Strategy Group) détaille les caractéristiques de l’environnement à différentes phases du processus de virtualisation (voir Tableau 1).
Tableau 1. Modèle de maturité de la virtualisation de l’ESG 

La première phase, « basique », consiste à lancer la consolidation et la centralisation des ressources grâce à la virtualisation. Le pool de ressources logiques en résultant peut contribuer à l’élimination des points de défaillance uniques, à la réduction des vulnérabilités et à l’optimisation de l’utilisation des ressources. Une infrastructure partagée peut faciliter l’automatisation, rationaliser la gestion et simplifier la capacité du service informatique à surveiller et analyser les tendances. Cette phase peut entraîner la deuxième : la « normalisation ».
La phase de normalisation implique la création de configurations, de processus et de règles standard. L’élaboration et le respect des règles peuvent engendrer une automatisation et une budgétisation plus prévisibles ainsi qu’une meilleure prévisibilité des niveaux de service. Il peut en résulter pour le service informatique une optimisation des processus, une gestion améliorée ainsi qu’une résilience opérationnelle, une qualité de service et une réactivité supérieures.
À mesure que les services informatiques évoluent vers la phase « entreprise », la virtualisation et ses avantages deviennent plus omniprésents. La prestation de services repose sur un catalogue et il est probable que le service informatique ait déployé un modèle d’informatique sous forme de service à la demande. Les politiques commerciales sont comprises et alignées sur le service informatique. L’automatisation et le libre-service sont le plus souvent déjà existants. Les partenaires commerciaux tirent parti de niveaux de service et de coûts plus prévisibles, ce qui engendre généralement une satisfaction plus élevée. Les objectifs de la triade informatique en termes de meilleure agilité résultant d’améliorations des processus, d’atténuations des risques et de réductions des coûts sont à portée de main.
Le point culminant d’un environnement hautement virtualisé constitue la phase « dynamique », lors de laquelle le fonctionnement est hautement automatisé et basé sur un modèle de service à la demande. Les ressources sont provisionnées et exploitées de manière dynamique et la prestation de services est liée aux contrats de niveau de service orientés métier. Le service informatique tire parti d’une analyse des ressources à l’échelle de l’entreprise, ce qui rationalise la planification et la gestion. La virtualisation dynamique engendre l’agilité commerciale souhaitée par les entreprises pour optimiser leur avantage concurrentiel.

Étendre les principes de la virtualisation

Aujourd’hui, la forme de virtualisation la plus prédominante est celle des serveurs. Près de 76 % des entreprises disposant d’un minimum de 2 500 serveurs utilisent actuellement la virtualisation dans un environnement de production, par rapport à 27 % seulement des entreprises disposant de moins de 25 serveurs (voir Figure 1).[1]
Figure 1. Adoption de la virtualisation des serveurs x86 par nombre de serveurs de production


La virtualisation des serveurs s’étend dans deux dimensions : la consolidation de davantage de serveurs physiques sur des plates-formes virtualisées et la croissance du nombre d’applications exécutées sur les machines virtuelles. Le développement de la virtualisation des serveurs suivant la courbe de maturité susmentionnée, les avantages du processus de virtualisation sont donc tangibles.
La virtualisation du stockage est souvent associée à la virtualisation des serveurs. La virtualisation du stockage (fonctionnalité regroupant divers systèmes de stockage en un pool de stockage unique et géré de manière centralisée) offre une nouvelle occasion de réduire les coûts informatiques et d’optimiser l’efficacité, notamment lorsque la virtualisation des serveurs se développe. Le cabinet d’études ESG indique que parmi les utilisateurs actuels de la virtualisation des serveurs, 86 % signalent que les stratégies de virtualisation du stockage constituent l’un de leurs investissements prioritaires pour les 12 à 18 prochains mois (voir Figure 2).[2] La combinaison des deux formes de virtualisation amplifie souvent les avantages de la virtualisation : réduction des coûts, optimisation de l’exploitation des ressources, accroissement de la disponibilité, simplification des mises à niveau et possibilité d’évolutivité.
Les entreprises maîtrisant davantage l’une des formes de la virtualisation, elles ne doivent alors pas fournir d’efforts de compréhension majeurs pour saisir le concept consistant à virtualiser d’autres domaines du datacenter. Bien souvent, les services informatiques s’engageant dans des stratégies de refonte complète du datacenter ont la virtualisation pour priorité. Ils souhaitent obtenir tous les avantages potentiels en une seule fois et mettre en œuvre la virtualisation dans de multiples domaines technologiques.
Figure 2. Corrélation entre l’adoption de la virtualisation des serveurs et celle de la virtualisation du stockage


Développer les performances et l’agilité opérationnelle

À mesure que les entreprises évoluent dans leur utilisation de la virtualisation, leur efficacité en termes de délais et de rentabilité leur permet d’innover davantage. Par exemple, la virtualisation pourrait se développer pour exploiter les ressources élastiques et potentiellement illimitées des modèles de Cloud Computing. Dans cette situation, l’informatique, le stockage, la communication et les applications se transforment en services fournis via Internet, permettant ainsi une informatique à la demande sur le cloud.
Le Cloud Computing peut être pris en charge et géré par le service informatique ou loué sous la forme d’un abonnement (basé sur l’utilisation) par un tiers. Dans une approche de Cloud Computing, les investissements du service informatique sont convertis en coûts d’exploitation. Les services informatiques pouvant partitionner et provisionner plus facilement les ressources au sein d’un environnement multi-utilisateurs, ceci contribuant à offrir des accords de niveau de service spécifiques aux clients.
De plus en plus d’entreprises virtualisant la couche d’infrastructure des datacenters d’entreprise ou de tiers, la prestation de services informatiques devient une réalité. Un modèle de ressources partagées facilite un modèle de services partagés. Au lieu d’une stratégie de type silo d’applications, les applications sont découplées de l’infrastructure et sont offertes via un modèle à la demande. Une stratégie de services applicatifs peut offrir une disponibilité optimisée si l’on considère le provisionnement de l’infrastructure comme dynamique. Les charges de travail applicatives plus critiques pourraient être prioritaires par rapport aux moins critiques d’entre elles.

Implications en termes de protection des données

La virtualisation des serveurs et du stockage est un facteur de changement pour la protection des données également. Ces extractions permettent aux ressources des serveurs et de stockage d’être exploitées de manière plus efficace pour créer et stocker des copies de données pour une reprise d’activité opérationnelle. Ceci peut engendrer des modifications de la structure des coûts et de la manière dont les services de protection des données sont délivrés.
L’encapsulation et la portabilité du système d’exploitation, des applications, des données et des paramètres de configuration des machines virtuelles permettent une mobilité au sein et entre les datacenters. Migrer d’une infrastructure sur site et en silos vers un environnement intégrant des composants pris en charge et gérés par le service informatique, ou partagés avec un tiers, ouvre la voie à de nouvelles possibilités en termes de stratégies de protection. Les solutions de protection des données peuvent créer et transférer des fichiers de disque de machines virtuelles actives en un ensemble, permettant une restauration rapide à distance ou en local. En outre, une infrastructure partagée et virtualisée supprime l’indépendance du service informatique vis-à-vis de stratégies de mise en miroir univoque et physique à physique et permet d’adapter la disponibilité et les architectures de restauration de manière rentable. Ce résultat correspond parfaitement aux attentes des utilisateurs finaux. Comme le montre la Figure 3, les répondants de l’étude ESG classent la « reprise d’activité simplifiée » comme l’avantage numéro un de la mise en œuvre de la virtualisation des serveurs.[3]
Appliquer la virtualisation aux ressources de protection des données peut engendrer des résultats similaires à ceux observés dans des environnements de virtualisation des serveurs et du stockage : consolidation, automatisation, analyse de la gestion des ressources à l’échelle de l’entreprise, utilisation accrue, etc. Plus important encore, cela peut également répondre aux objectifs de la triade informatique en atténuant les risques, offrir des niveaux de service et des coûts plus prévisibles et maintenir l’agilité. Les répondants de l’étude ESG classent la réduction des délais et budgets et l’amélioration des contrats de niveau de service parmi les cinq résultats majeurs de la mise en œuvre de la virtualisation des serveurs.
Figure 3. L’impact de la virtualisation sur les processus de protection des données


La vérité essentielle

La virtualisation s’avère vitale pour l’optimisation de l’informatique et constitue une solution séduisante. Elle offre évolutivité, facilité de gestion, utilisation et disponibilité optimisées et résilience du système et contribue ainsi à des performances accrues en termes de réactivité et de coûts informatiques. La virtualisation apporte des modifications qualitatives à la manière dont l’informatique fonctionne et dont les services sont fournis.
La virtualisation constitue la pierre angulaire de l’évolution de la prestation de services. Les ressources informatiques se virtualisant, les entreprises informatiques migrent d’un environnement où les ressources sont sur-provisionnées et sous-utilisées, où le déploiement est lent, les coûts élevés et les processus inefficaces, vers un environnement où les ressources sont réunies en un pool et virtualisées pour une exploitation adaptée, où le déploiement est à la demande, les coûts optimisés et les processus flexibles. Atteindre l’état final « dynamique » du processus de virtualisation constitue un immense investissement en termes de temps, de coûts et d’amélioration des compétences pour les ressources informatiques. Les résultats en valent cependant la peine.
Publié le mardi 17 août 2010 à 20h01 
Auteurs : Lauren Whitehouse 

[1] Source : Présentation de l’étude ESG, Reference Research: x86 Server Virtualization Adoption by Company Size and Number of Servers (Étude de référence : L’adoption de la virtualisation des serveurs x86 selon les tailles d’entreprises et leur nombre de serveurs), mars 2009.
[2] Source : Rapport de recherche ESG, 2010 IT Spending Priorities (Dépenses informatiques prioritaires en 2010), février 2010.
[3] Source : Rapport de recherche ESG, 2010 IT Spending Priorities (Tendances 2010 en matière de protection des données), avril 2010.

Aucun commentaire: