vendredi 18 février 2011

Offrir Performance et Haute Disponibilité aux Environnements Virtualisés










 Interview de George Teixeira , réalisé lors du lancement de SANsymphony-V à Paris, par Catherine Nohra-China - Virtualization Inside


Lors du lancement de sa nouvelle solution de virtualisation du stockage SAN symphony-V, Georges Texeira, Président et CEO nous a exposé la stratégie de la société , quant à l’approche 100% logicielle de la virtualisation


Quels sont les principaux enjeux liés à la virtualisation du stockage ? Aujourd’hui, le principal enjeu des entreprises dans leurs projets de virtualisation de serveurs et d’applications est de gagner en performance, notamment sur les problèmes de congestion E/S des systèmes, voire de risque de perte de disponibilité des systèmes virtualisés.  Optimiser le matériel ne permet pas de résoudre ces problèmes de performance. Au contraire, cette approche crée une véritable interdépendance avec les fournisseurs de plateformes comme EMC, HP et Dell, avec le risque que le niveau d’investissement lié au stockage annihile tous les bénéfices de réduction des coûts liés à la virtualisation. Notre principal défi est donc de convaincre que la migration vers la virtualisation du stockage implique un nouvel état d’esprit, qui est de s’affranchir des contraintes matérielles

Quels sont les points forts de votre nouvelle solution SAN Symphony-V ? Notre solution utilise des techniques de mise en cache adaptative et d’accélération des performances issues de 10 années de R&D, pour absorber les charges de travail des environnements virtualisés et éviter que le stockage ne constitue un point de défaillance unique, grâce à des fonctionnalités automatique de basculement et de restauration. Nous sommes capables de garantir des gains en performance jusqu’à 6 fois plus importants qu’avec des optimisations matérielles. 

Quels sont les avantages pour les entreprises ayant des projets de virtualisation ?
Certains fournisseurs recommandent que leurs clients s’enferment dans des configurations de matériels de stockages spécifiques et des appliances dédiées. A l’inverse, nous leurs proposons de se libérer de la dépendance à l’égard du matériel, en dissociant l’infrastructure virtuelles des disques sous-jacents. Notre solution permet d’optimiser les débits E/S des périphériques de stockage, plutôt que de les remplacer, et donc de prolonger la durée de vie des équipements existants. 


Quelle est votre vision à moyen terme du marché de la virtualisation ? Bien que VMware représente la grande partie de la base des projets de virtualisation, nous constatons également la montée en puissance de MS Hyper-V Windows Server, et beaucoup d'entreprises réfléchissent à l’intérêt de mixer les deux environnements. Quant au marché, même si certaines études affichent des taux d’implémentations records, aujourd’hui en moyenne, seuls 20% des serveurs sont virtualisés. Ce chiffre pourrait monter à 80% d’ici 10 ans. Je crois également que l’on va s’orienter vers des architectures de containers, intégrant VM, stockage, et applications. 

On ne vous entend pas beaucoup parler de Cloud Computing ? Le Cloud est un nouveau paradigme qui a été inventé pour rassurer les investisseurs du marché vis-à-vis de la stratégie de certains éditeurs, qui manquait à la fois d’innovation et de structurations de leurs offres. Le Cloud n’est pas une fin en soi. En revanche, les vrais bouleversements de l’IT sont liés à la virtualisation des systèmes, et à la mise en œuvre de nouveaux modèles de licences. Je ne crois pas au succès du Cloud public pour la gestion d’applications métiers critiques. Après tout, le plus beau succès de Cloud Public ne serait-il pas l'Iphone, avec la mise à disposition de tout type d’application en mode service, sur un système matériel bon marché ... 

Vos prévisions pour l’avenir ? Le matériel va prendre de moins en moins d’importance au profit du logiciel et de l’applicatif et pourquoi pas tendre vers la fin des Systèmes d’Exploitations ?

Aucun commentaire: