samedi 11 décembre 2010

Les exigences du Cloud Computing sont une opportunité pour Datacore!

Virtualisation des serveurs, des postes de travail... et du stockage. On y vient, mais lentement. Par manque de sécurité?

«Il faut de la souplesse, des performances et de la haute disponibilité. DataCore assure une tolérance aux pannes supprimant presque tous les arrêts liés au stockage qui entravent la continuité d’activité et nuisent aux projets de virtualisation et de consolidation. Datacore se distingue par la résilience des données et une haute performance à un tarif abordable. Vos applications, serveurs et postes de travail virtuels et vos migrations de machines virtuelles fonctionnent sans interruption malgré les modifications, pannes ou reconfigurations du stockage sous-jacent. Résultat: vous disposez d’une réelle solution de stockage partagé et de haute disponibilité protégeant automatiquement et de manière transparente vos données et machines virtuelles, en ne déployant le logiciel de stockage virtuel qu’en deux points

A vous entendre, plus que la virtualisation, c’est la disponibilités des données qui devrait être la première préoccupation. Pourquoi?

«Virtualiser est une chose, accéder en toute circonstances à vos données en est une autre! La façon d’atténuer au maximum les risques engendrés par la consolidation. Les inquiétudes majeures à présent sont de savoir comment isoler les applications métier des pannes et interruptions liées au stockage qui peuvent peser gravement sur les images de machines virtuelles et les données essentielles à la bonne marche de mon entreprise. Quelle est aussi l’efficacité de mes solutions de stockage partagé, de reprise d’activité et de haute disponibilité...»

Comment DataCore y répond?

«Par la virtualisation des disques sur des pools de périphériques de stockage étagé. On peut ainsi provisionner, partager, reconfigurer, migrer, répliquer, élargir et mettre à niveau le stockage, sans ralentissement ni temps d’arrêt. Ce qui rend le stockage plus fiable, plus rapide et donc plus performant. Gros avantage: Plus de goulots d'étranglement, plus d’obstacles en termes d’investissement, qui mettent en péril les projets de virtualisation. Cerise sur le gâteau: DataCore fonctionne avec les périphériques de stockage hétérogènes et incompatibles.»

Johan Vanhaeren à la tête de l’organisation BeNeLux

Après Citrix, DataCore. Après la virtualisation des serveurs et des postes de travail, celle du stockage. Johan Vanhaeren, 40 ans, arrive à un moment charnière pour l’éditeur de solutions de virtualisation du stockage, à l’heure où, précisément, le Cloud prend son envol. Commercialement, jusqu’ici, la zone BeLux était dirigée depuis Paris, tandis que la filiale allemande avait en charge les Pays-Bas. Conscient que pour progresser il faut être plus proche de ses clients, l’éditeur a revu son organisation, proposant à Johan Vanhaeren de diriger le BeNeLux.

http://www.solutions-magazine.com/Les-exigences-du-Cloud-Computing-sont-une-opportunite-pour-Datacore_a856.html 

jeudi 9 décembre 2010

lundi 6 décembre 2010

Les 10 meilleurs moyens de réduire les coûts de stockage


Il fut un temps où le stockage était considéré comme une nécessité onéreuse. Ce n’est plus le cas. Puisque la croissance des données a explosé et que la technologie a évolué, il n'est plus à l'ordre du jour de payer un surcoût pour utiliser de nombreuses baies de disques coûteuses. La priorité actuelle consiste à maintenir les coûts à la baisse. Voici dix moyens de rendre le stockage plus rentable.

Utilisation intelligente des bandes

Malgré le battage médiatique au sujet du cloud et du disque, le modèle économique des bandes reste toujours difficile à battre, si vous les utilisez intelligemment. Une optimisation rentable se résumerait, par exemple, à une solution de stockage combinée sur disque/bande, avec la bande exploitée principalement pour l’archivage.
« Dès lors que vous pouvez remplacer un dispositif à faible consommation énergétique (bande) par un dispositif à forte consommation (disque), vous pouvez économiser de l'argent », affirme Jon Hiles, directeur produit chez Spectra Logic. « Cela s’avère particulièrement vrai lorsque l’on compare les taux de consommation énergétique des deux dispositifs sur le long terme. »
Lorsque l’on conçoit une architecture de stockage pour héberger des données indéfiniment (à des fins réglementaires, de conformité, de recherche ou d’exploration), stocker les données à long terme sur des bandes devient financièrement judicieux. Jon Hiles recommande de rendre les données facilement disponibles en utilisant un système de fichiers extensible comme celui présent dans une archive active pour optimiser les avantages. De tels systèmes de fichiers permettent des écritures et lectures de données sur bande dans des formats non propriétaires sans transfert sur disque.

Protection des données hors site

La protection des données fut pendant longtemps une activité couteuse : en effet, elle nécessitait de créer un datacenter distant, de le doter de serveurs et de ressources de stockage et d’y installer un logiciel de sauvegarde et de réplication pour protéger les données. De plus en plus d’entreprises renoncent à cet investissement en faveur de l’externalisation.
« Les entreprises peuvent réduire ou même éliminer les coûts d’investissement et d’exploitation, ainsi que les difficultés liées à la sauvegarde classique des serveurs (licences d’agent, serveurs de supports, bandes, bibliothèques et services de gestion des supports) grâce à une solution externalisée », affirme Jeff Bell, directeur du marketing d’entreprise chez Zetta.
Selon les chiffres de Jeff Bell, les méthodes traditionnelles pour protéger 10 To de données sur disque et sur bande hors site pendant trois ans coûterait plus de 350 000 dollars. Il estime, en revanche, que l’appel à des fournisseurs tels que Zetta pour une protection des données externalisée ne coûterait environ qu’un tiers de ce montant. Une stratégie d’externalisation élimine les dépenses initiales d’investissement, les licences logicielles de sauvegarde et le coût des supports amovibles. Cela réduit aussi la complexité et le risque.

Virtualisation logicielle

Il existe de nombreuses méthodes pour virtualiser le stockage. Dans certains cas, le fournisseur suggère de se débarrasser de l’ancien matériel pour acheter une toute nouvelle baie de virtualisation. Une méthode plus rentable consiste à laisser le disque existant en place et à l’intégrer à un pool de stockage partagé à l’aide d’une virtualisation logicielle.
« Grâce à la virtualisation du stockage logicielle, vous pouvez tirer pleinement parti des ressources de disque existantes avant de devoir dépenser de l’argent pour obtenir une capacité supplémentaire », explique Gonzalez, directeur Marketing produit de DataCore Software.

Dépenser pour économiser

Il existe parfois une petite marge de manœuvre dans le budget. Dans de telles circonstances, Greg Schulz de Server and StorageIO Group recommande de dépenser peu pour économiser beaucoup en investissant dans les outils adéquats.
« Si vous possédez un certain budget, investissez dans des outils qui vous permettront de déterminer la nature de vos données et notamment, quelles données inactives peuvent être archivées ou transférées vers un autre support », précise-t-il. « Considérez les outils de réduction de l’encombrement des données (par exemple, archivage, compression, déduplication, gestion des données, dont la suppression), le provisionnement fin et les snapshots peu encombrants, avec un stockage étagé. »

Gestion de l’utilisation

De nos jours, la plupart des entreprises n’utilisent pas leur système de stockage efficacement. L’allocation de stockage sur baies dépasse en général ce que les systèmes hôtes consomment réellement, qu’ils soient réels ou virtuels, et les applications. En analysant les besoins réels en stockage au niveau de l'application et de l'hôte, les entreprises peuvent récupérer de l’espace.
Prenez le cas d’un important organisme américain de soins de santé où 2 millions de dollars pourraient être économisés chaque année en améliorant l'efficacité du stockage. L’utilisation moyenne du stockage par les serveurs de cet organisme était de 54,5 % (quatre serveurs avaient un taux inférieur à 30 %). Avec un stockage de niveau 1 estimé à un coût d’environ 8 000 dollars par To par an, cet organisme pourrait économiser jusqu'à 2 millions de dollars avec un moyen de gérer l’ensemble de ses 4 Po de données.
« Comprendre l'utilisation réelle du stockage de bout en bout serait une solution pour obtenir davantage avec moins de ressources », souligne Rick Clark, président et CEO d’Aptare, une entreprise qui offre un logiciel de reporting sur le stockage et de gestion des capacités.

Déduplication

La déduplication est évidemment un moyen intelligent qui permet d'économiser de l’argent sur la sauvegarde et le stockage. Cependant, envisageons les choses différemment. Lortu fournit une gamme d’appliances de sauvegarde/déduplication qui en théorie peuvent stocker environ 100 sauvegardes complètes quotidiennement et répliquer ces données sur le réseau WAN.
« Toutes les sauvegardes sont disponibles en ligne à tout moment, ainsi l'administrateur peut restaurer une sauvegarde à partir de son ordinateur sans avoir à quitter son bureau pour trouver et prendre la bande en question », déclare Carlos Ardanza, PDG de Lortu. Il affirme que la déduplication permet de stocker 50 à 80 fois plus de données non structurées.

Performance et économies

En période difficile, la plupart des responsables du stockage se concentrent sur les solutions à portée de main. Cependant, une autre démarche consiste à accroître la performance pour économiser à long terme.
« Alors que la tendance commune vise à économiser de l'argent via l'abstinence ou l'évitement, il serait possible aussi d’économiser en utilisant un système de stockage de pointe qui permettrait davantage d'IOPS par watt ou un coût réduit par transaction par opposition à un stockage axé sur la capacité qui privilégierait le coût par Go », déclare Greg Schulz.

Mémoire flash

De nombreux fournisseurs proposent du matériel de stockage qui accélère les transactions, élimine les goulots d’étranglement et évite les délais inutiles. La technologie flash s'avère actuellement l'une des meilleures solutions. Violin Memory, par exemple, propose des baies à mémoire flash qui offrent des avantages intéressants dans certains cas d'utilisation.
Selon Matt Barletta, vice-président Marketing produits chez Violin Memory, chaque transaction commerciale en ligne nécessite habituellement 20 opérations E/S ou plus, et un disque dur standard peut prendre en charge 2 à 10 transactions par seconde. Selon lui, une baie à mémoire flash Violin, prend en charge 10 000 transactions par seconde et peut remplacer jusqu’à 1000 disques durs.
« Les systèmes de base de données classiques engendrent un coût de transaction par minute de 2,40 dollars, dont une grande partie correspond au stockage ou aux processeurs qui se trouvent en attente de stockage », explique Matt Barletta. « Les baies à mémoire flash réduisent ce coût à moins de 1 dollar. »

Évolution de l’architecture RAID

Si le budget est vraiment serré alors que les besoins en stockage s’avèrent élevés, Greg Schulz suggère de réexaminer les niveaux RAID. « Vous pouvez envisager de modifier les niveaux RAID, ce qui, malgré les perturbations, pourrait permettre de récupérer de la capacité de stockage », déclare-t-il. « Cependant, gardez en perspective vos impératifs en termes de performance et de disponibilité ».
Vous utilisez peut-être une architecture RAID 6 pour la plupart de vos systèmes de stockage. Conserver uniquement les données stratégiques (ou très utilisées) en RAID 6 et déplacer le reste en RAID 5 pourrait libérer un volume considérable d'espace disque.

TreeSize

Greg Schulz recommande un outil gratuit connu sous le nom de TreeSize de Jam Software. Il vous indique l’occupation de l’espace, avec la taille de chaque dossier et sous-dossier. L’analyse s’effectue via un thread. Vous pouvez ainsi afficher les résultats alors que Tree Size est en cours d’exécution. Ceci fournit un moyen rapide de rechercher les zones de stockage orphelines ou gaspillées.
Drew Robb - 18 Octobre 2010 
http://www.enterprisestorageforum.com/management/features/article.php/3908676/Top-10-Ways-to-Trim-Storage-Costs.htm 

 

lundi 29 novembre 2010

La virtualisation engendre la virtualisation : optimiser les performances et l’agilité opérationnelle

La virtualisation transforme les périphériques physiques en un ensemble de pools de ressources indépendants des ressources physiques sur lesquelles ils fonctionnent. Cette isolation facilite la mise en œuvre d’une analyse, d’une supervision et d’une gestion normalisées des ressources. Cela supprime également les problèmes économiques et opérationnels des silos d’infrastructure. En définitive, la virtualisation offre des avantages exceptionnels : évolutivité, facilité de gestion, économies de coûts, utilisation et disponibilité optimisées, résilience du système, déploiement rapide et agilité informatique.

Introduction

La virtualisation révolutionne la manière dont les services informatiques sont fournis. Elle va changer en profondeur la méthode employée par les entreprises pour les utiliser, y accéder et les payer. Pourquoi ? Une fois la virtualisation mise en œuvre dans un domaine informatique spécifique, elle devient virale. Virtualiser une ressource informatique particulière engendre la virtualisation d’autres ressources informatiques, et ainsi de suite. Les services informatiques sont alors délivrés de manière plus efficace, créant ainsi des occasions d’élargir la virtualisation et transformer l’environnement pour davantage d’impact commercial.

Analyse de la situation

Les services informatiques sont confrontés à une multitude de défis, notamment les coûts élevés de la prestation de services, le fait de ne pouvoir suivre le rythme de la croissance des données, les vulnérabilités en termes de sécurité, les problèmes énergétiques et bien davantage. Le contexte économique actuel renforce la pression exercée sur les budgets et ressources informatiques. Cependant, les DSI doivent toujours offrir des services rentables et de qualité en réponse à de nouvelles stratégies métier, et ce avec agilité.
La gestion informatique est la plus concernée par cette « triade informatique » : atténuer les risques pour les activités commerciales existantes, raccourcir le cycle de développement des innovations et réduire les coûts pour financer ces innovations. Il s’avère souvent difficile de réaliser ces trois objectifs. Il est donc possible que certains services sacrifient certains domaines au profit d’autres.
L’informatique devrait idéalement être orientée vers les stratégies métier offrant un avantage concurrentiel, par exemple proposer des applications métier, créer de nouveaux réseaux de distribution, optimiser les processus pour les employés et les partenaires commerciaux et bien d’autres. Malheureusement, l’impératif pour le service informatique de rester opérationnel en permanence et de gérer l’activité de l’entreprise absorbe 70 % de son temps et de ses ressources, n’en laissant que 30 % pour les projets visant à modifier l’activité pour optimiser sa compétitivité.
Le déséquilibre résulte souvent d’une prolifération informatique. Des silos de solutions logicielles et de matériel propriétaires et inflexibles s’avèrent inefficaces et coûteux. Ces ressources sont souvent sous-exploitées et créent de multiples points de défaillance. Cette situation engendre également de l’inefficacité opérationnelle : il est nécessaire de gérer une infrastructure plus importante, des activités réactives de « gestion de crise », et d’offrir des niveaux de service de base.
La situation réelle crée des conflits entre le service commercial et le service informatique. Les responsables opérationnels souhaitent un rapide retour sur investissement (ROI) et des niveaux de service plus élevés. Pour obtenir des niveaux de service élevés, le service informatique pourrait sur-provisionner ou créer des solutions dédiées pour garantir les performances. Cependant, cela rentre en conflit avec les exigences en termes de ROI et avec les besoins des responsables opérationnels (et du service informatique) de réduire les coûts et d’engendrer une agilité opérationnelle.
Le résultat ? Des équipes informatiques sous pression tentent d’atteindre les objectifs de la triade informatique tout en maintenant une qualité de service élevée pour leurs partenaires commerciaux. De la même manière, leurs partenaires commerciaux pourraient ne pas être satisfaits si la qualité de service est sacrifiée au profit de la résolution d’autres problèmes.
C’est ici que la virtualisation entre en jeu. Virtualiser les ressources permet d’abolir les silos. Les coûts peuvent alors être réduits, l’efficacité et l’agilité opérationnelles optimisées et les risques atténués. Une infrastructure virtualisée peut aussi contribuer à l’agilité informatique en matière de maintien des niveaux de service. Enfin, la virtualisation peut faciliter une inversion dans le ratio 70/30 entre l’administration et l’innovation.

La virtualisation

Qu’est-ce que la virtualisation ?

En des termes très simples, la virtualisation constitue une abstraction de la réalité, le processus d’extraire le logique du physique, pour transformer les ressources physiques en un pool de ressources logiques indépendantes. Comme mentionné précédemment, elle peut révolutionner l’informatique car elle transforme la manière dont les services sont fournis, permettant ainsi une refonte de l’activité.

Modèle de maturité de la virtualisation

Alors, de quelle manière la virtualisation transforme-t-elle l’activité ? Il s’agit d’une approche itérative qui survient avec le temps. De petites étapes entraînent des avantages entraînant d’autres étapes, ainsi de suite. À mesure que les entreprises progressent vers des étapes spécifiques, les coûts sont davantage optimisés et l’efficacité des processus se renforce.
Pour illustrer ce concept, le modèle de maturité de la virtualisation de l’ESG (Enterprise Strategy Group) détaille les caractéristiques de l’environnement à différentes phases du processus de virtualisation (voir Tableau 1).
Tableau 1. Modèle de maturité de la virtualisation de l’ESG 

La première phase, « basique », consiste à lancer la consolidation et la centralisation des ressources grâce à la virtualisation. Le pool de ressources logiques en résultant peut contribuer à l’élimination des points de défaillance uniques, à la réduction des vulnérabilités et à l’optimisation de l’utilisation des ressources. Une infrastructure partagée peut faciliter l’automatisation, rationaliser la gestion et simplifier la capacité du service informatique à surveiller et analyser les tendances. Cette phase peut entraîner la deuxième : la « normalisation ».
La phase de normalisation implique la création de configurations, de processus et de règles standard. L’élaboration et le respect des règles peuvent engendrer une automatisation et une budgétisation plus prévisibles ainsi qu’une meilleure prévisibilité des niveaux de service. Il peut en résulter pour le service informatique une optimisation des processus, une gestion améliorée ainsi qu’une résilience opérationnelle, une qualité de service et une réactivité supérieures.
À mesure que les services informatiques évoluent vers la phase « entreprise », la virtualisation et ses avantages deviennent plus omniprésents. La prestation de services repose sur un catalogue et il est probable que le service informatique ait déployé un modèle d’informatique sous forme de service à la demande. Les politiques commerciales sont comprises et alignées sur le service informatique. L’automatisation et le libre-service sont le plus souvent déjà existants. Les partenaires commerciaux tirent parti de niveaux de service et de coûts plus prévisibles, ce qui engendre généralement une satisfaction plus élevée. Les objectifs de la triade informatique en termes de meilleure agilité résultant d’améliorations des processus, d’atténuations des risques et de réductions des coûts sont à portée de main.
Le point culminant d’un environnement hautement virtualisé constitue la phase « dynamique », lors de laquelle le fonctionnement est hautement automatisé et basé sur un modèle de service à la demande. Les ressources sont provisionnées et exploitées de manière dynamique et la prestation de services est liée aux contrats de niveau de service orientés métier. Le service informatique tire parti d’une analyse des ressources à l’échelle de l’entreprise, ce qui rationalise la planification et la gestion. La virtualisation dynamique engendre l’agilité commerciale souhaitée par les entreprises pour optimiser leur avantage concurrentiel.

Étendre les principes de la virtualisation

Aujourd’hui, la forme de virtualisation la plus prédominante est celle des serveurs. Près de 76 % des entreprises disposant d’un minimum de 2 500 serveurs utilisent actuellement la virtualisation dans un environnement de production, par rapport à 27 % seulement des entreprises disposant de moins de 25 serveurs (voir Figure 1).[1]
Figure 1. Adoption de la virtualisation des serveurs x86 par nombre de serveurs de production


La virtualisation des serveurs s’étend dans deux dimensions : la consolidation de davantage de serveurs physiques sur des plates-formes virtualisées et la croissance du nombre d’applications exécutées sur les machines virtuelles. Le développement de la virtualisation des serveurs suivant la courbe de maturité susmentionnée, les avantages du processus de virtualisation sont donc tangibles.
La virtualisation du stockage est souvent associée à la virtualisation des serveurs. La virtualisation du stockage (fonctionnalité regroupant divers systèmes de stockage en un pool de stockage unique et géré de manière centralisée) offre une nouvelle occasion de réduire les coûts informatiques et d’optimiser l’efficacité, notamment lorsque la virtualisation des serveurs se développe. Le cabinet d’études ESG indique que parmi les utilisateurs actuels de la virtualisation des serveurs, 86 % signalent que les stratégies de virtualisation du stockage constituent l’un de leurs investissements prioritaires pour les 12 à 18 prochains mois (voir Figure 2).[2] La combinaison des deux formes de virtualisation amplifie souvent les avantages de la virtualisation : réduction des coûts, optimisation de l’exploitation des ressources, accroissement de la disponibilité, simplification des mises à niveau et possibilité d’évolutivité.
Les entreprises maîtrisant davantage l’une des formes de la virtualisation, elles ne doivent alors pas fournir d’efforts de compréhension majeurs pour saisir le concept consistant à virtualiser d’autres domaines du datacenter. Bien souvent, les services informatiques s’engageant dans des stratégies de refonte complète du datacenter ont la virtualisation pour priorité. Ils souhaitent obtenir tous les avantages potentiels en une seule fois et mettre en œuvre la virtualisation dans de multiples domaines technologiques.
Figure 2. Corrélation entre l’adoption de la virtualisation des serveurs et celle de la virtualisation du stockage


Développer les performances et l’agilité opérationnelle

À mesure que les entreprises évoluent dans leur utilisation de la virtualisation, leur efficacité en termes de délais et de rentabilité leur permet d’innover davantage. Par exemple, la virtualisation pourrait se développer pour exploiter les ressources élastiques et potentiellement illimitées des modèles de Cloud Computing. Dans cette situation, l’informatique, le stockage, la communication et les applications se transforment en services fournis via Internet, permettant ainsi une informatique à la demande sur le cloud.
Le Cloud Computing peut être pris en charge et géré par le service informatique ou loué sous la forme d’un abonnement (basé sur l’utilisation) par un tiers. Dans une approche de Cloud Computing, les investissements du service informatique sont convertis en coûts d’exploitation. Les services informatiques pouvant partitionner et provisionner plus facilement les ressources au sein d’un environnement multi-utilisateurs, ceci contribuant à offrir des accords de niveau de service spécifiques aux clients.
De plus en plus d’entreprises virtualisant la couche d’infrastructure des datacenters d’entreprise ou de tiers, la prestation de services informatiques devient une réalité. Un modèle de ressources partagées facilite un modèle de services partagés. Au lieu d’une stratégie de type silo d’applications, les applications sont découplées de l’infrastructure et sont offertes via un modèle à la demande. Une stratégie de services applicatifs peut offrir une disponibilité optimisée si l’on considère le provisionnement de l’infrastructure comme dynamique. Les charges de travail applicatives plus critiques pourraient être prioritaires par rapport aux moins critiques d’entre elles.

Implications en termes de protection des données

La virtualisation des serveurs et du stockage est un facteur de changement pour la protection des données également. Ces extractions permettent aux ressources des serveurs et de stockage d’être exploitées de manière plus efficace pour créer et stocker des copies de données pour une reprise d’activité opérationnelle. Ceci peut engendrer des modifications de la structure des coûts et de la manière dont les services de protection des données sont délivrés.
L’encapsulation et la portabilité du système d’exploitation, des applications, des données et des paramètres de configuration des machines virtuelles permettent une mobilité au sein et entre les datacenters. Migrer d’une infrastructure sur site et en silos vers un environnement intégrant des composants pris en charge et gérés par le service informatique, ou partagés avec un tiers, ouvre la voie à de nouvelles possibilités en termes de stratégies de protection. Les solutions de protection des données peuvent créer et transférer des fichiers de disque de machines virtuelles actives en un ensemble, permettant une restauration rapide à distance ou en local. En outre, une infrastructure partagée et virtualisée supprime l’indépendance du service informatique vis-à-vis de stratégies de mise en miroir univoque et physique à physique et permet d’adapter la disponibilité et les architectures de restauration de manière rentable. Ce résultat correspond parfaitement aux attentes des utilisateurs finaux. Comme le montre la Figure 3, les répondants de l’étude ESG classent la « reprise d’activité simplifiée » comme l’avantage numéro un de la mise en œuvre de la virtualisation des serveurs.[3]
Appliquer la virtualisation aux ressources de protection des données peut engendrer des résultats similaires à ceux observés dans des environnements de virtualisation des serveurs et du stockage : consolidation, automatisation, analyse de la gestion des ressources à l’échelle de l’entreprise, utilisation accrue, etc. Plus important encore, cela peut également répondre aux objectifs de la triade informatique en atténuant les risques, offrir des niveaux de service et des coûts plus prévisibles et maintenir l’agilité. Les répondants de l’étude ESG classent la réduction des délais et budgets et l’amélioration des contrats de niveau de service parmi les cinq résultats majeurs de la mise en œuvre de la virtualisation des serveurs.
Figure 3. L’impact de la virtualisation sur les processus de protection des données


La vérité essentielle

La virtualisation s’avère vitale pour l’optimisation de l’informatique et constitue une solution séduisante. Elle offre évolutivité, facilité de gestion, utilisation et disponibilité optimisées et résilience du système et contribue ainsi à des performances accrues en termes de réactivité et de coûts informatiques. La virtualisation apporte des modifications qualitatives à la manière dont l’informatique fonctionne et dont les services sont fournis.
La virtualisation constitue la pierre angulaire de l’évolution de la prestation de services. Les ressources informatiques se virtualisant, les entreprises informatiques migrent d’un environnement où les ressources sont sur-provisionnées et sous-utilisées, où le déploiement est lent, les coûts élevés et les processus inefficaces, vers un environnement où les ressources sont réunies en un pool et virtualisées pour une exploitation adaptée, où le déploiement est à la demande, les coûts optimisés et les processus flexibles. Atteindre l’état final « dynamique » du processus de virtualisation constitue un immense investissement en termes de temps, de coûts et d’amélioration des compétences pour les ressources informatiques. Les résultats en valent cependant la peine.
Publié le mardi 17 août 2010 à 20h01 
Auteurs : Lauren Whitehouse 

[1] Source : Présentation de l’étude ESG, Reference Research: x86 Server Virtualization Adoption by Company Size and Number of Servers (Étude de référence : L’adoption de la virtualisation des serveurs x86 selon les tailles d’entreprises et leur nombre de serveurs), mars 2009.
[2] Source : Rapport de recherche ESG, 2010 IT Spending Priorities (Dépenses informatiques prioritaires en 2010), février 2010.
[3] Source : Rapport de recherche ESG, 2010 IT Spending Priorities (Tendances 2010 en matière de protection des données), avril 2010.

vendredi 26 novembre 2010

Virtualization Review SuperCast: Le Temps de La Virtualisation a définitivement sonné!

Dans ce document audio, GRATUIT sur demande, apprenez pourquoi la VIRTUALISATION DU STOCKAGE est en train de passer très rapidement du statut de 'C'est bien de l'avoir' à celui de 'C'est nécessaire de l'avoir' pour un déploiement optimal des environnements virtualisés.

Keynote: Jon Toigo, CEO Toigo Partners International, Chairman Data Management Institute
Storage expert Jon Toigo is a columnist for Enterprise Systems and contributing writer for Virtualization Review. He is a consultant, blogger and author of 15 books on business technology, disaster recovery and data storage.

Join industry leaders for a free supercast designed to help you understand the growing need and value of virtualized storage, as well as tips and strategies for implementation and optimization.

Featured Presentations include:

Secrets to 100% Uptime in a Virtualized Environment by DataCore 

lundi 22 novembre 2010

Affluence record au tour de France VMware 2010

VMware a sensiblement augmenté sa couverture commerciale ces derniers mois et ça se voit. La participation à son tour de France clients et partenaires qui se tient actuellement est en forte augmentation.
 

On se doutait que le VMware Tour 2010 serait l’un des événements les plus courus de l’écosystème IT en cette fin d’année 2010. Mais, alors que ce roadshow partenaires et clients finaux n’en est encore qu’à sa quatrième étape (sur sept), l’engouement suscité dépasse déjà toutes les espérances de son organisateur.


« Avec 2300 personnes inscrites et un taux de présence de 90%, nous dépassons déjà l’audience cumulée des éditions 2008 et 2009 réunies », se félicite Hervé Uzan, DG France de l’éditeur. L’étape parisienne qui se tenait ce jeudi 18 novembre au Pavillon d’Armenonville (photo) a enregistré à elle seule plus de 700 inscriptions (pour 300 attendus) dont un gros tiers de partenaires. Et l’étape d’Aix en Provence qui s’est tenue le 9 novembre a accueilli quelque 180 participants au lieu de la centaine attendus.


La virtualisation se diffuse dans les PME


Cette hausse spectaculaire de la fréquentation reflète bien-entendu l’accélération de la diffusion des outils de virtualisation dans les entrepises. « Le nombre de serveurs virtualisés est désormais supérieur à celui des serveurs physiques », rappelle Hervé Uzan. Le phénomène touche désormais les PME qui profitent d’offres (gamme Essential Plus), de tarifications et d’un suivi adapté.

VMware_Tour_2010_Pavillon_dArmenonville


Depuis le début de l’année, VMware a ainsi doublé son équipe commerciale en charge de la relation directe avec les clients. Celle-ci est passée d’une douzaine à une vingtaine de personnes (y compris la télévente). Et l’éditeur a même entamé son déploiement en régions. Depuis un mois, il dispose d’un représentant à demeure à Aix-en-Provence et envisage de s’implanter à Nantes, dans le Sud-Ouest et en Rhône-Alpes. Résultat, depuis le début de l’année, son volume de transactions a quasiment doublé, selon Hervé Uzan. Une évolution qui se traduit dans le visitorat de l’événement : désormais les partenaires sont minoritaires par rapport aux clients finaux alors que c’était l’inverse jusque là.


Les sponsors se battent pour associer leur nom à l’événement


Cette inflation concerne aussi le nombre de sponsors. Considérant qu’il n’est qu’une composante parmi d’autres dans les projets d’infrastructures de ses clients, VMware a pris l’habitude depuis la création de son tour de France de s’entourer de ses plus fidèles partenaires technologiques et de leur céder une partie de la vedette.


Ainsi, cette année, ils ne sont pas moins de vingt sponsors à participer financièrement à l’événement en espérant tirer profit de l’attrait que suscite la marque. « Et encore a-t-il fallu faire des choix devant l’afflux des demandes », glisse Hervé Uzan. Outre les historiques (EMC, Cisco, Netapp, Wyze, Amosdec et Magirus) et  les récurrents (IBM-Intel, Atos Origin, Veeam,…), VMware embarquait pour la première fois cette année dans sa caravane des partenaires tels que Trend Micro, Symantec, Mitel, Arrow ECS, Radware, F5 ou encore DataCore


Décollage des offres dédiées au postes de travail


Cette édition 2010 était l’occasion pour l’éditeur d’insister sur la montée en puissance de ses offres dites de « end-user computing », autrement dit se rapportant aux postes de travail. « Le nombre de maquettes pour des projets de virtualisation de postes de travail est en train d’exploser et notre offre de messagerie et d’outils de collaboration Zimbra a déjà séduit plusieurs grands comptes publics », confie Hervé Uzan.


L’occasion également d’encourager ses partenaires à se former sur une gamme qui a eu tendance à s’étoffer sensiblement au cours des derniers mois. Notamment avec l’arrivée de ses outils de gestion de niveaux de charge « Capacity IQ », la disponibilité de sa solution d’administration des coûts en mode services managés « vCenter Chargeback » et, à l’automne, le lancement de son offre de gestion des règles de sécurité « vSchield ».


Un programme partenaires enrichi


A ce jour, la moitié environ de ses 400 partenaires se sont certifiés sur ses outils de management et d’automatisation. Une certification qui donne droit à des points de remise supplémentaires et à des cofinancements pour des opérations de marketing prépackagées désormais assurées par un centre de ressources dédié internalisé. Une certification accompagnée de programmes de rebates et de marketing comparables est également disponible depuis quelques mois pour son offre de virtualisation des postes de travail.

Prochaines étapes :
Nantes le 23 novembre
Toulouse le 25
Lille le 2 décembre

18.11.10 - Johann Armand
http://www.channelnews.fr/actu-societes/fournisseurs/8190-participation-record-au-tour-de-france-vmware-2010.html

 

vendredi 19 novembre 2010

Des établissements d’enseignement de toutes tailles tirent parti du logiciel de virtualisation de DataCore au cœur de leur infrastructure de virtualisation

Le secteur de l’enseignement ne cesse d’adopter massivement la solution DataCore comme pierre angulaire des infrastructures virtualisées. « DataCore offre une excellente solution qui nous a permis de virtualiser nos ressources de stockages existantes et nouvelles sur le réseau principal tout en maintenant une seule interface et un seul point de gestion pour gérer tous nos environnements SAN différents », déclare Dustin Fennell, vice-président du département informatique et directeur informatique du Scottsdale Community College. « DataCore nous a même permis d’atteindre un niveau plus élevé de performances et nous pouvons maintenant bénéficier d’une haute disponibilité. »

Les solutions logicielles de DataCore permettent aux data centers et aux départements informatiques au sein des établissements d’enseignement de gérer et d’optimiser la capacité de stockage tout en exploitant le matériel existant pour protéger et fournir les ressources de stockage des serveurs et postes de travail virtuels Microsoft, VMware et Citrix.

En outre, DataCore accorde de l’importance au secteur de l’enseignement et le considère comme un investissement stratégique pour les années à venir. DataCore propose ainsi aux organismes d’enseignement qualifiés des offres promotionnelles spécifiques et des remises supplémentaires allant jusqu’à 50 % sur ses offres logicielles de virtualisation : http://www.datacore.com/education.

Les établissements d’enseignement de toutes tailles adoptent la méthode logicielle de virtualisation du stockage de DataCore pour pouvoir surmonter les obstacles en termes d’investissement liés au stockage et les problèmes en termes d’interruptions et de performances. Voici quelques-uns des tout derniers établissements américains à avoir adopté la solution DataCore au cœur de leur infrastructure de virtualisation : l’American River College, l’université de l’État d’Arizona, la Bellarmine University, l’école de Berkshire, le Capital Community College, le Louisburg College, la Midwestern University, l’établissement scolaire Mount Anthony Middle School, l’établissement NY Network, l’Académie de Notre Dame, le Rogue Community College, l’établissement North Star Charter School, le Sacramento City College, le Scottsdale Community College, la Shenandoah School Corporation, la Spalding University, l’Université de Californie à San Francisco, l’établissement scolaire Three Rivers Community College, l’Utica College, le Virginia Wesleyan College, la Wittenberg University, et bien d’autres.

Outre ces nouveaux clients, de nombreux établissements d’enseignement américains ont déjà déployé la virtualisation du stockage grâce aux solutions SANmelody™ et SANsymphony™ de DataCore. Ceux-ci comprennent l’Université d’Auburn, le Daytona Beach Community College, le Georgia Institute of Technology, le Los Rios Community College District, le Midway College, la Mount St. Mary’s University, la Sullivan University, l’Université de Syracuse, la Texas A&M University à Kingsville, l’Université du Colorado à Boulder, l’Université de l’Illinois, le réseau éducatif de l’Université de l’Utah, l’École de médecine de l’Université de l’Utah, et de nombreux autres établissements à travers le monde et de tous niveaux d’enseignement.

Les besoins des services informatiques qui gèrent des établissements d'enseignement peuvent présenter les mêmes lacunes que les autres : un projet de virtualisation qui se cantonne aux serveurs et postes de travail et qui néglige donc un aspect essentiel, le stockage. « Dans un contexte d’écoles maternelles et primaires, si les arrondissements n’envisagent pas la virtualisation, ils se privent d’un formidable outil pédagogique », déclare Steve Gumm, directeur informatique, écoles du comté de Barren.

Témoignages clients du secteur de l’enseignement

Grâce à la virtualisation des ressources de stockage, les établissements peuvent : éviter les périodes d'interruption, planifiées ou non ; améliorer le fonctionnement des périphériques de stockage ; combiner les périphériques actuels au nouveau matériel acheté ; et, le plus crucial, respecter le budget.

Université d’Oxford –

« La solution de DataCore et VMware nous permet de connecter et de gérer le stockage et les serveurs virtuels à la demande. Finalement, DataCore offre une solution de stockage rentable que nous recommandons avec grand plaisir. » - Jon Hutchings, Services informatiques de l’Université d’Oxford (OUCS, Oxford University Computing Services).

Lisez l’étude de cas dans son intégralité : Virtualisation du stockage à l'Université d'Oxford

Le Scottsdale Community College –

« L’informatique virtuelle a transformé l’ensemble de notre organisation : la manière dont nous délivrons les services, la manière dont nous les prenons en charge et la manière dont nos utilisateurs finaux les utilisent. Notre solution SAN précédente constituait un goulot d’étranglement dans cet environnement et nous avions besoin d’une solution présentant un degré supérieur de hautes performances. La virtualisation du stockage DataCore constitue un élément essentiel à la stabilité et à l’efficacité de notre environnement informatique virtuel. »
- Dustin Fennell, vice-président des services informatiques et directeur informatique, Scottsdale Community College

Écoles du comté de Barren –

« Dans tous les domaines et pour toutes les applications, nous privilégions la virtualisation complète. Le principal avantage pour nous fut d'obtenir une infrastructure de données virtualisée. Comme nous avons adopté la virtualisation du stockage, nous pouvons désormais déployer tout matériel de stockage en arrière-plan de l'environnement souhaité. DataCore nous a même permis de réaffecter du matériel ancien. »
- Steve Gumm, directeur informatique, écoles du comté de Barren.

Lisez l’étude de cas dans son intégralité : www.datacore.com/barrencounty

Écoles locales de Lakota –

« Pour notre environnement en croissance constante qui repose sur des solutions réseau, DataCore nous a permis de déployer une infrastructure virtuelle à un coût bien moindre et sans la surcharge des autres solutions de stockage. Nous avons pu ainsi virtualiser plusieurs systèmes centraux, avec à la clé des économies d'énergie (alimentation, refroidissement) et d'espace tout en renforçant la redondance. » - Todd Wesley, administrateur d’exploitation réseau des écoles locales de Lakota.

Lisez l’étude de cas dans son intégralité : www.datacore.com/lakota

Arrondissement d’écoles réunies de Rocklin –

« Nous devions mettre en place un réseau de stockage virtuel qui soit évolutif, tout en assurant le mécanisme de basculement requis, avec tolérance aux pannes, pour protéger le stockage et optimiser la disponibilité globale du système. Nous avons maintenant déployé une nouvelle infrastructure VMware et Citrix pour gérer nos applications. Et DataCore fournit la base sous-jacente de l'ensemble. »
- Glenn Baker, ingénieur systèmes, Arrondissement d'écoles réunies de Rocklin.

Lisez l’étude de cas dans son intégralité : www.datacore.com/rocklin

Arrondissement d’écoles intermédiaires de Saginaw –

« Nous fûmes également convaincus par le fait que DataCore offre une solution abordable pour assurer une haute disponibilité. Et la migration d’un environnement physique à virtuel fut transparente : personne n’a même réalisé qu’elle a eu lieu. Grâce au provisionnement fin DataCore, nous avons pu migrer les serveurs dont nous avions besoin en journée et sans engendrer d’interruption à un arrondissement d’écoles. »
- Jeff Johnson, directeur des services techniques, Arrondissement d’écoles intermédiaires de Saginaw

Lisez l’étude de cas dans son intégralité : www.datacore.com/saginaw

Pour en savoir plus, merci de contacter un partenaire DataCore ou consultez la page http://www.datacore.com/education .


lundi 15 novembre 2010

Coup de projecteur sur les cas d’utilisation client, les NAS haute disponibilité, et les meilleures pratiques en matière de cluster

DataCore Software offre des niveaux de performances, de haute disponibilité et d’évolutivité du stockage sans précédent aux partages de fichiers en cluster Microsoft [NAS haute disponibilité], aux volumes CSV en clusters de basculement Hyper-V et aux clusters métropolitains


Lors du salon Microsoft Tech-Ed Europe 2010 qui s’est tenu à Berlin la semaine dernière à Berlin, DataCore Software, un leader des solutions logicielles de virtualisation du stockage, a présenté des innovations majeures optimisant la disponibilité, l’évolutivité et les performances des fonctionnalités de cluster de basculement dans le produit Microsoft® Windows Server® 2008 R2 Hyper-V™. Plusieurs études de cas et livres blancs sont disponibles et soulignent la manière dont les entreprises peuvent bénéficier, sur les plans opérationnel et financier, de ces solutions communes.

Les deux cas d’utilisation les plus courants pour DataCore dans des scénarios de cluster de basculement Microsoft impliquent la virtualisation et la mise en miroir des ressources de stockage sur des périphériques de stockage physiquement séparés pour :
les volumes de cluster partagés (CSV)
les partages de fichiers en cluster

De nombreux clients DataCore présents lors du salon ont expliqué les aspects techniques à la base de leurs mises en œuvre réelles. Parmi eux figurait l’hôpital suisse Regionalspital Emmental (RSE) AG : le logiciel DataCore a virtualisé l’ensemble de l’infrastructure de stockage partagé pour ses applications Exchange, SQL et médicales. RSE exploite 15 serveurs physiques et plus de 50 machines virtuelles exécutées sur l’hôte Hyper-V.

« La virtualisation des serveurs avec Microsoft Hyper-V alliée au logiciel de virtualisation du stockage DataCore constituent une partie intégrante de notre stratégie informatique, réduisant de manière considérable les coûts en termes de matériel, d’énergie et de gestion », a déclaré Falko Gieldanowski, directeur informatique de RSE AG. « Nous économisons actuellement près de 30 % en optimisant davantage l’utilisation de notre temps et de nos ressources et grâce à l’accroissement de la productivité résultante. Nous prévoyons en outre davantage d’économies sur toute la durée de vie de notre infrastructure. »

NAS haute disponibilité
Nouveautés : éliminer les périodes d'interruption liées au stockage pour les partages de fichiers en cluster

L’un des sujets mis en lumière lors du salon Tech-Ed Europe 2010 fut la manière d’empêcher le stockage de devenir un point de défaillance unique pour les partages de fichiers en cluster. DataCore a expliqué comment combiner son logiciel aux fonctionnalités intégrées de Microsoft pour offrir une réelle fonctionnalité NAS haute disponibilité. Point clé, aucun logiciel ni matériel ne sont nécessaires pour déployer cette fonctionnalité. Pour en savoir plus sur la mise en place d’un NAS haute disponibilité, veuillez contacter : infoFrance@datacore.com.

Accès aux données sans interruption : virtualisation et accélération des réseaux SAN pour les CSV

L’entreprise américaine Stockbridge Capital Group déploie le logiciel de virtualisation du stockage DataCore avec Microsoft Hyper-V pour répondre à ses besoins en termes de continuité d’activité. Deux nœuds DataCore mis en miroir de manière synchrone maintiennent la haute disponibilité de l’infrastructure de stockage, en particuliers les CSV, pour assurer un accès aux données sans interruption depuis un cluster de sept (7) serveurs Hyper-V hébergeant plus de 25 machines virtuelles. Avant d’exploiter la virtualisation, Stockbridge utilisait plus de 30 serveurs physiques.

« La solution de virtualisation du stockage DataCore nous offre toutes les fonctionnalités haut de gamme, notamment une haute disponibilité de pointe, mais à un prix abordable », commente Stephen Pilch, directeur des opérations de Stockbridge. « Le logiciel de DataCore nous permet d’exploiter facilement notre investissement dans les technologies existantes et nouvelles et renforce nos serveurs virtuels pour répondre aux besoins métier sans interruption tout en s’adaptant à notre budget. C’est une solution idéale pour nous. »

La configuration du stockage virtualisé pourvoit aux besoins du serveur Microsoft Exchange de Stockbridge ainsi que des référentiels de fichiers utilisés par tous ses employés. « Nous avons été agréablement surpris : grâce à DataCore, le SAN iSCSI fonctionne en fait mieux que le SAN Fibre Channel existant, en termes de vitesse et d’accessibilité », explique Cem Kursunoglu, président de BayNODE. Lisez l’article dans son intégralité ici.

Les clusters métropolitains à grande échelle s’en remettent à Microsoft et DataCore

Continuum Health Partners (« Continuum ») s’appuie sur le logiciel DataCore SANsymphony™ pour la virtualisation et la gestion de plus de 200 téraoctets de stockage pour les divers hôpitaux du réseau hospitalier Continuum. L’infrastructure tirant parti de la technologie DataCore prend en charge un ensemble de plus de 500 serveurs avec des périphériques de stockage répartis entre différents sites de la ville de New York.

« Le logiciel de virtualisation du stockage DataCore est la pièce manquante du puzzle de la virtualisation : il offre la dimension flexible de la virtualisation du stockage nécessaire à tout projet de virtualisation. Il constitue en outre le parfait complément à la virtualisation des serveurs et la parfaite optimisation du matériel de stockage », souligne Jill Wojcik, directrice informatique chez Continuum Health Partners.

Les solutions Microsoft exécutées sur l’infrastructure virtuelle de DataCore chez Continuum comprennent :°Microsoft Windows Server 2008 R2, Microsoft System Center Configuration Manager (SCCM), Microsoft SQL Server et les serveurs de clusters Microsoft Cluster Server (MSCS). Pour une étude de cas approfondie de ce déploiement, veuillez consulter la page : www.datacore.com/continuum.

Pour recevoir un livre blanc décrivant les techniques exploitées pour fournir un accès sans interruption aux volumes de cluster partagés (CSV) grâce à une mise en miroir synchrone sur les périphériques de stockage répartis entre plusieurs sites actifs-actifs, veuillez le télécharger à l’adresse suivante : www.datacore.com/metroclusters.