mercredi 5 janvier 2011

DataCore Prévision #3: Perspectives 2011 sur l’évolution économique des logiciels de virtualisation du stockage, des clouds privés et des postes de travail virtuels

Prévision : Les PME surfent sur la vague de la virtualisation. Microsoft Hyper-V et ses tarifs créent un nouveau courant d’utilisateurs de la virtualisation, l’automatisation et la simplicité de gestion devenant la nouvelle norme pour le stockage.

Les clients de DataCore réalisent depuis quelque temps les avantages de la virtualisation logicielle du stockage. Consultez la page http://www.datacore.com/Software/Benefits.aspx.  En quoi 2011 sera-t-elle une année différente ? 
Tout d’abord, à cause de la récession.  Elle a modifié les besoins des clients en redéfinissant le seuil de ce qu’ils ne peuvent pas se permettre d’ignorer.  Ils ne peuvent plus négliger les avantages et les gains d’efficacité de la virtualisation. Une reprise sans emploi signifie également que les entreprises choisissent de se développer avec leurs ressources existantes, et la virtualisation leur offre la flexibilité de réaffecter ces ressources, tirant ainsi le meilleur parti de leurs investissements informatiques précédents.

Mais il existe bien d’autres facteurs favorisant l’adoption de la virtualisation.  Nous pensons que deux facteurs clés d’adoption résulteront de la convergence de ce que réalisent DataCore et Microsoft. Microsoft Hyper-V a créé une autre vague d’utilisateurs de la virtualisation.  Avec Windows 2008 R2 et Hyper-V, l’environnement Microsoft global a commencé à intégrer la virtualisation et cette tendance va continuer à s’accélérer. Suite à la première vague de projets de virtualisation, un nombre croissant d’entreprises, en particulier les PME, migrent des applications de production de base telles que Exchange et SQL. Ceci nécessite des investissements dépassant le cadre des serveurs : réseau, postes de travail et bien sûr stockage. Ces clients recherchent des solutions de stockage simples à utiliser qui gèrent les fortes demandes en données des environnements virtuels, mais intuitives pour la communauté Windows. 

C’est à ce niveau que DataCore aura un impact majeur sur l’utilisation courante de la virtualisation en 2011. Au fil du temps et grâce à l’expérience acquise suite à des milliers de déploiements, nous avons appris que nous devions prendre en compte les points de vue de l’utilisateur et de l’opérateur.  Nous comprenons que sur ce marché de la virtualisation en pleine expansion, l’opérateur ne sera pas toujours un administrateur du stockage expert. La différence en 2011 sera que les solutions logicielles de virtualisation devront être simples à utiliser. C’est la clé d’une large adoption.  Le contenu de nos prochaines versions va certainement accélérer cette évolution, non seulement pour DataCore mais pour tous ceux qui suivent nos traces. 

Notre prochaine génération de logiciels va prouver l’avantage de l’infrastructure logicielle : la capacité à éliminer la complexité et à adapter la flexibilité. C’est aussi simple qu’essentiel.

L’avantage logiciel devient également évident lorsque vous considérez les différentes formes qu’il peut prendre. Nos logiciels étant portables, ils peuvent s’exécuter sur une machine virtuelle ou sur une multitude de serveurs physiques. Ils peuvent non seulement virtualiser et gérer le stockage, mais également coexister avec l’hyperviseur du serveur dans la couche de virtualisation, offrant de nombreuses possibilités pour répondre aux défis du monde réel et du budget réel. Le matériel n’en est tout simplement pas capable.

mardi 4 janvier 2011

DataCore Prévision #2: Perspectives 2011 sur l’évolution économique des logiciels de virtualisation du stockage, des clouds privés et des postes de travail virtuels


Prévision : En 2011, le seuil de viabilité pour les déploiements de postes de travail virtuels baisse de plusieurs milliers d’unités à quelques centaines grâce aux logiciels de virtualisation du stockage.

La barrière freinant l’adoption des infrastructures de postes de travail virtuels (VDI) est bien analysée par mon collègue Ziya Aral, président de DataCore :

« Le problème des postes de travail virtuels réside dans le fait que les SAN sont souvent déployés avec de grands contrôleurs de stockage coûteux et des réseaux de stockage externe complexes. Bien qu’ils présentent l’avantage d’assurer une évolutivité raisonnable, ils entraînent un coût minimal très élevé pour les projets de postes de travail virtuels. Pour surmonter ce poids d’investissement lourd, les fournisseurs de matériel prônent en général le modèle économique consistant à déployer plusieurs milliers de postes de travail virtuels.

Toutefois, les postes de travail virtuels n’en restent qu’à leurs débuts. De nombreuses entreprises, bien que comprenant les avantages potentiels de la technologie, lancent des programmes pilotes ou tentent d’intégrer les déploiements de postes de travail virtuels à des architectures existantes. Si la granularité de ces déploiements porte sur des milliers d’unités, l’utilisateur est alors contraint d’exploiter non pas seulement un poste dans son intégralité, mais un éventail complet de postes sur un site, et ce avant même de savoir si la solution convient.

L’alternative s’avère tout aussi peu attractive. L’utilisateur « prend sur soi » et accepte ce coût minimal élevé ainsi que la complexité d'un réseau SAN complet tout en exploitant un nombre de postes de travail virtuels bien inférieur au nombre optimal. Le coût de la mise en œuvre par poste de travail devient alors beaucoup plus conséquent qu’il ne l’aurait été si le modèle classique des postes de travail physiques avait été conservé. On aboutit ainsi à un résultat contraire à celui recherché en déployant une nouvelle technologie censée réduire les coûts.

En d’autres termes, le vrai problème ne réside pas dans l’évolution vers des milliers de postes de travail virtuels, mais dans leur adaptation à des configurations pratique. Il est logiquement inutile de préciser qu’il faut y parvenir sans alourdir sensiblement les coûts au niveau du poste et également sans renoncer au jeu de fonctionnalités du réseau SAN assurant portabilité, disponibilité et redondance des données. Sinon, tous les avantages des postes de travail virtuels seraient compromis. »

DataCore a procédé à des bancs d’essai complets pour comprendre le modèle économique des postes de travail virtuels et fut en mesure de mettre en œuvre des configurations de stockage haute disponibilité prenant en charge près de 200 postes de travail virtuels. Les premiers résultats ont révélé que selon la configuration utilisée, nous pouvons obtenir un coût matériel total par poste de travail inférieur à 35,00 $, infrastructure de stockage comprise.  Ces résultats sont comparables à de précédentes études vantant les coûts de l’infrastructure de stockage des postes de travail virtuels, soit quelques centaines de dollars par machine virtuelle en général.  Nous poursuivons nos études mais je pense que selon ces premiers résultats, nous allons changer la donne en éliminant les coûts du stockage comme l’un des obstacles majeurs aux déploiements de postes de travail virtuels.

DataCore publiera des mises à jour complémentaires des études dès le début de l’année 2011, et nous vous invitons à consulter les mises à jour et le rapport complet à l’adresse : DataCore répond au défi du coût des postes de travail virtuels.

lundi 3 janvier 2011

DataCore Prévision #1: Perspectives 2011 sur l’évolution économique des logiciels de virtualisation du stockage, des clouds privés et des postes de travail virtuels

« Le retour sur investissement pour l’entreprise d’une « infrastructure logicielle » pure, où elle n’acquiert qu’une seule fois une solution intelligente pour gérer, protéger et mieux exploiter ses ressources de stockage (au fil de leur évolution d’une génération à l’autre ou d’une marque à l’autre), constitue une proposition de valeur aussi attractive qu’inévitable. »
-          George Teixeira, président et CEO de DataCore Software

Prévision : Une demande croissante, un contexte concurrentiel de plus en plus exigeant, ainsi que les enseignements tirés de la récession, vont conduire à une rapide normalisation des infrastructures virtuelles dynamiques, de type logiciel, engendrant de nouvelles stratégies pour les investissements en stockage et les choix de matériel ouvert.  

Comme nous l’avons constaté cette année, la virtualisation ne se limite plus aux serveurs. Il s’agit de créer des infrastructures agiles et pérennes avec des solutions logicielles qui évoluent et s’adaptent dans le temps, ce qui vous permet d’opter pour le matériel que vous souhaitez utiliser et assure une optimisation et des dividendes permanents en termes de ROI tout au long du cycle de vie de vos ressources informatiques.

La demande croissante rend optimistes les fournisseurs de matériel de stockage.  Selon les rapports des analystes, le marché du stockage de données s’est rétabli en 2010. La demande croissante des entreprises qui ont différé des mises à niveau ou évité un cycle de renouvellement s’avère réelle. Cependant, cela ne marque pas le retour d’une tendance vers des infrastructures axées sur le matériel. L’actualité la plus révélatrice confirme le vif intérêt que conservent les clouds, les postes de travail virtuels et la virtualisation du stockage, ce qui souligne la réticence grandissante des acheteurs à ne s’appuyer que sur des infrastructures physiques.

Les clients se montrent, fort logiquement, plus prudents qu’ils ne l’étaient avant la récession et, en toute franchise, plus avisés quant à leurs options.  Ils souhaitent se prémunir contre une obsolescence rapide de leurs périphériques matériels.  En période difficile, le modèle de l’achat réitéré leur a laissé peu de choix pour améliorer leurs infrastructures afin de gagner en continuité d’activité, mobilité et performance.  Ils n’ont pu réaffecter du matériel existant, ou se tourner facilement vers un autre fournisseur. En fait, ils ont été invités à remplacer l’équipement en place bien avant le terme de sa vie utile.  Je pense que nous allons constater que la récession a joué un rôle de catalyseur pour accélérer le déclin de ce cycle matériel inefficace, car trop coûteux, trop complexe et peu bénéfique pour les clients.

Les DSI recherchent manifestement un avantage par rapport aux infrastructures physiques. Le cloud, les postes de travail virtuels, la virtualisation des serveurs et la virtualisation du stockage se trouvent donc au cœur des débats du secteur. C’est également la raison pour laquelle même les fournisseurs de matériel de stockage classique tentent de prendre une voie logicielle, pour moderniser leurs offres.

Ainsi, alors que nous observons l’essor des ventes de matériel de stockage, nous constatons en parallèle une croissance des solutions d’infrastructures logicielles. Elles offrent un avantage, voire une garantie, en termes de minimisation des coûts actuels et futurs des environnements physiques qu’elles gèrent, et elles élargissent les options d’achat entre autres. Comme l’a affirmé récemment un client DataCore, « vous n’appartenez à aucun fournisseur de matériel, car vous disposez d’un laissez-passer permanent qui vous libère de la dépendance vis-à-vis du matériel et à l’égard d’un fournisseur de stockage ». 

samedi 11 décembre 2010

Les exigences du Cloud Computing sont une opportunité pour Datacore!

Virtualisation des serveurs, des postes de travail... et du stockage. On y vient, mais lentement. Par manque de sécurité?

«Il faut de la souplesse, des performances et de la haute disponibilité. DataCore assure une tolérance aux pannes supprimant presque tous les arrêts liés au stockage qui entravent la continuité d’activité et nuisent aux projets de virtualisation et de consolidation. Datacore se distingue par la résilience des données et une haute performance à un tarif abordable. Vos applications, serveurs et postes de travail virtuels et vos migrations de machines virtuelles fonctionnent sans interruption malgré les modifications, pannes ou reconfigurations du stockage sous-jacent. Résultat: vous disposez d’une réelle solution de stockage partagé et de haute disponibilité protégeant automatiquement et de manière transparente vos données et machines virtuelles, en ne déployant le logiciel de stockage virtuel qu’en deux points

A vous entendre, plus que la virtualisation, c’est la disponibilités des données qui devrait être la première préoccupation. Pourquoi?

«Virtualiser est une chose, accéder en toute circonstances à vos données en est une autre! La façon d’atténuer au maximum les risques engendrés par la consolidation. Les inquiétudes majeures à présent sont de savoir comment isoler les applications métier des pannes et interruptions liées au stockage qui peuvent peser gravement sur les images de machines virtuelles et les données essentielles à la bonne marche de mon entreprise. Quelle est aussi l’efficacité de mes solutions de stockage partagé, de reprise d’activité et de haute disponibilité...»

Comment DataCore y répond?

«Par la virtualisation des disques sur des pools de périphériques de stockage étagé. On peut ainsi provisionner, partager, reconfigurer, migrer, répliquer, élargir et mettre à niveau le stockage, sans ralentissement ni temps d’arrêt. Ce qui rend le stockage plus fiable, plus rapide et donc plus performant. Gros avantage: Plus de goulots d'étranglement, plus d’obstacles en termes d’investissement, qui mettent en péril les projets de virtualisation. Cerise sur le gâteau: DataCore fonctionne avec les périphériques de stockage hétérogènes et incompatibles.»

Johan Vanhaeren à la tête de l’organisation BeNeLux

Après Citrix, DataCore. Après la virtualisation des serveurs et des postes de travail, celle du stockage. Johan Vanhaeren, 40 ans, arrive à un moment charnière pour l’éditeur de solutions de virtualisation du stockage, à l’heure où, précisément, le Cloud prend son envol. Commercialement, jusqu’ici, la zone BeLux était dirigée depuis Paris, tandis que la filiale allemande avait en charge les Pays-Bas. Conscient que pour progresser il faut être plus proche de ses clients, l’éditeur a revu son organisation, proposant à Johan Vanhaeren de diriger le BeNeLux.

http://www.solutions-magazine.com/Les-exigences-du-Cloud-Computing-sont-une-opportunite-pour-Datacore_a856.html 

jeudi 9 décembre 2010

lundi 6 décembre 2010

Les 10 meilleurs moyens de réduire les coûts de stockage


Il fut un temps où le stockage était considéré comme une nécessité onéreuse. Ce n’est plus le cas. Puisque la croissance des données a explosé et que la technologie a évolué, il n'est plus à l'ordre du jour de payer un surcoût pour utiliser de nombreuses baies de disques coûteuses. La priorité actuelle consiste à maintenir les coûts à la baisse. Voici dix moyens de rendre le stockage plus rentable.

Utilisation intelligente des bandes

Malgré le battage médiatique au sujet du cloud et du disque, le modèle économique des bandes reste toujours difficile à battre, si vous les utilisez intelligemment. Une optimisation rentable se résumerait, par exemple, à une solution de stockage combinée sur disque/bande, avec la bande exploitée principalement pour l’archivage.
« Dès lors que vous pouvez remplacer un dispositif à faible consommation énergétique (bande) par un dispositif à forte consommation (disque), vous pouvez économiser de l'argent », affirme Jon Hiles, directeur produit chez Spectra Logic. « Cela s’avère particulièrement vrai lorsque l’on compare les taux de consommation énergétique des deux dispositifs sur le long terme. »
Lorsque l’on conçoit une architecture de stockage pour héberger des données indéfiniment (à des fins réglementaires, de conformité, de recherche ou d’exploration), stocker les données à long terme sur des bandes devient financièrement judicieux. Jon Hiles recommande de rendre les données facilement disponibles en utilisant un système de fichiers extensible comme celui présent dans une archive active pour optimiser les avantages. De tels systèmes de fichiers permettent des écritures et lectures de données sur bande dans des formats non propriétaires sans transfert sur disque.

Protection des données hors site

La protection des données fut pendant longtemps une activité couteuse : en effet, elle nécessitait de créer un datacenter distant, de le doter de serveurs et de ressources de stockage et d’y installer un logiciel de sauvegarde et de réplication pour protéger les données. De plus en plus d’entreprises renoncent à cet investissement en faveur de l’externalisation.
« Les entreprises peuvent réduire ou même éliminer les coûts d’investissement et d’exploitation, ainsi que les difficultés liées à la sauvegarde classique des serveurs (licences d’agent, serveurs de supports, bandes, bibliothèques et services de gestion des supports) grâce à une solution externalisée », affirme Jeff Bell, directeur du marketing d’entreprise chez Zetta.
Selon les chiffres de Jeff Bell, les méthodes traditionnelles pour protéger 10 To de données sur disque et sur bande hors site pendant trois ans coûterait plus de 350 000 dollars. Il estime, en revanche, que l’appel à des fournisseurs tels que Zetta pour une protection des données externalisée ne coûterait environ qu’un tiers de ce montant. Une stratégie d’externalisation élimine les dépenses initiales d’investissement, les licences logicielles de sauvegarde et le coût des supports amovibles. Cela réduit aussi la complexité et le risque.

Virtualisation logicielle

Il existe de nombreuses méthodes pour virtualiser le stockage. Dans certains cas, le fournisseur suggère de se débarrasser de l’ancien matériel pour acheter une toute nouvelle baie de virtualisation. Une méthode plus rentable consiste à laisser le disque existant en place et à l’intégrer à un pool de stockage partagé à l’aide d’une virtualisation logicielle.
« Grâce à la virtualisation du stockage logicielle, vous pouvez tirer pleinement parti des ressources de disque existantes avant de devoir dépenser de l’argent pour obtenir une capacité supplémentaire », explique Gonzalez, directeur Marketing produit de DataCore Software.

Dépenser pour économiser

Il existe parfois une petite marge de manœuvre dans le budget. Dans de telles circonstances, Greg Schulz de Server and StorageIO Group recommande de dépenser peu pour économiser beaucoup en investissant dans les outils adéquats.
« Si vous possédez un certain budget, investissez dans des outils qui vous permettront de déterminer la nature de vos données et notamment, quelles données inactives peuvent être archivées ou transférées vers un autre support », précise-t-il. « Considérez les outils de réduction de l’encombrement des données (par exemple, archivage, compression, déduplication, gestion des données, dont la suppression), le provisionnement fin et les snapshots peu encombrants, avec un stockage étagé. »

Gestion de l’utilisation

De nos jours, la plupart des entreprises n’utilisent pas leur système de stockage efficacement. L’allocation de stockage sur baies dépasse en général ce que les systèmes hôtes consomment réellement, qu’ils soient réels ou virtuels, et les applications. En analysant les besoins réels en stockage au niveau de l'application et de l'hôte, les entreprises peuvent récupérer de l’espace.
Prenez le cas d’un important organisme américain de soins de santé où 2 millions de dollars pourraient être économisés chaque année en améliorant l'efficacité du stockage. L’utilisation moyenne du stockage par les serveurs de cet organisme était de 54,5 % (quatre serveurs avaient un taux inférieur à 30 %). Avec un stockage de niveau 1 estimé à un coût d’environ 8 000 dollars par To par an, cet organisme pourrait économiser jusqu'à 2 millions de dollars avec un moyen de gérer l’ensemble de ses 4 Po de données.
« Comprendre l'utilisation réelle du stockage de bout en bout serait une solution pour obtenir davantage avec moins de ressources », souligne Rick Clark, président et CEO d’Aptare, une entreprise qui offre un logiciel de reporting sur le stockage et de gestion des capacités.

Déduplication

La déduplication est évidemment un moyen intelligent qui permet d'économiser de l’argent sur la sauvegarde et le stockage. Cependant, envisageons les choses différemment. Lortu fournit une gamme d’appliances de sauvegarde/déduplication qui en théorie peuvent stocker environ 100 sauvegardes complètes quotidiennement et répliquer ces données sur le réseau WAN.
« Toutes les sauvegardes sont disponibles en ligne à tout moment, ainsi l'administrateur peut restaurer une sauvegarde à partir de son ordinateur sans avoir à quitter son bureau pour trouver et prendre la bande en question », déclare Carlos Ardanza, PDG de Lortu. Il affirme que la déduplication permet de stocker 50 à 80 fois plus de données non structurées.

Performance et économies

En période difficile, la plupart des responsables du stockage se concentrent sur les solutions à portée de main. Cependant, une autre démarche consiste à accroître la performance pour économiser à long terme.
« Alors que la tendance commune vise à économiser de l'argent via l'abstinence ou l'évitement, il serait possible aussi d’économiser en utilisant un système de stockage de pointe qui permettrait davantage d'IOPS par watt ou un coût réduit par transaction par opposition à un stockage axé sur la capacité qui privilégierait le coût par Go », déclare Greg Schulz.

Mémoire flash

De nombreux fournisseurs proposent du matériel de stockage qui accélère les transactions, élimine les goulots d’étranglement et évite les délais inutiles. La technologie flash s'avère actuellement l'une des meilleures solutions. Violin Memory, par exemple, propose des baies à mémoire flash qui offrent des avantages intéressants dans certains cas d'utilisation.
Selon Matt Barletta, vice-président Marketing produits chez Violin Memory, chaque transaction commerciale en ligne nécessite habituellement 20 opérations E/S ou plus, et un disque dur standard peut prendre en charge 2 à 10 transactions par seconde. Selon lui, une baie à mémoire flash Violin, prend en charge 10 000 transactions par seconde et peut remplacer jusqu’à 1000 disques durs.
« Les systèmes de base de données classiques engendrent un coût de transaction par minute de 2,40 dollars, dont une grande partie correspond au stockage ou aux processeurs qui se trouvent en attente de stockage », explique Matt Barletta. « Les baies à mémoire flash réduisent ce coût à moins de 1 dollar. »

Évolution de l’architecture RAID

Si le budget est vraiment serré alors que les besoins en stockage s’avèrent élevés, Greg Schulz suggère de réexaminer les niveaux RAID. « Vous pouvez envisager de modifier les niveaux RAID, ce qui, malgré les perturbations, pourrait permettre de récupérer de la capacité de stockage », déclare-t-il. « Cependant, gardez en perspective vos impératifs en termes de performance et de disponibilité ».
Vous utilisez peut-être une architecture RAID 6 pour la plupart de vos systèmes de stockage. Conserver uniquement les données stratégiques (ou très utilisées) en RAID 6 et déplacer le reste en RAID 5 pourrait libérer un volume considérable d'espace disque.

TreeSize

Greg Schulz recommande un outil gratuit connu sous le nom de TreeSize de Jam Software. Il vous indique l’occupation de l’espace, avec la taille de chaque dossier et sous-dossier. L’analyse s’effectue via un thread. Vous pouvez ainsi afficher les résultats alors que Tree Size est en cours d’exécution. Ceci fournit un moyen rapide de rechercher les zones de stockage orphelines ou gaspillées.
Drew Robb - 18 Octobre 2010 
http://www.enterprisestorageforum.com/management/features/article.php/3908676/Top-10-Ways-to-Trim-Storage-Costs.htm