dimanche 24 avril 2016

DataCore enregistre le temps de réponse le plus rapide et le meilleur ratio performances-prix du top 10 des résultats SPC-1

La technologie d'E/S parallèles permet d'obtenir plus d'1,5 million de SPC-1 IOPS avec un temps de réponse de 100 microsecondes tout en exécutant simultanément des charges de travail de base de données d'entreprise, et offre un ratio SPC-1 Price-Performance™ de 9 cents par SPC-1 IOPS™

DataCore annonce que ses seconds résultats SPC-1 l'ont fait passer à la troisième place du top 10 établi par le SPC, et qu'elle offre les meilleures performances et les temps de réponse les plus rapides de ce classement. DataCore s'est encore une fois distinguée et occupe désormais les deux premières places dans la catégorie SPC-1 Price-Performance™. Le logiciel DataCore™ Parallel Server au cœur de la configuration hyperconvergée a obtenu un résultat de 1 510 090,52 SPC-1 IOPS™[1]. Il convient de noter que les systèmes occupant les deux premières places[2] de la catégorie sont des systèmes très encombrants, qui, à plusieurs millions de dollars sont aussi 14 fois plus chers que la solution 4U compacte de DataCore.

« Ces résultats n'ont rien d’étonnant pour nous », affirme Ziya Aral, président de DataCore Software. « Oui, nous utilisons un serveur 2U standard, mais ce serveur comporte 36 cœurs et 72 CPU logiques. Chaque processeur est cadencé à 2,5 GHz. Nous pouvons donc atteindre 180 GHz, sous réserve d'utiliser simultanément l'ensemble des CPU. Même si les CPU ne sont pas entièrement exploitées, nous bénéficions d'une puissance de calcul exceptionnelle. Et encore, avec une exploitation de seulement 60 % (elle est bien plus importante que cela en réalité), nous bénéficions déjà d'une puissance de CPU effective supérieure à 100 GHz. Pour être honnête, nous aurions été déçus de ne pas obtenir de telles performances d'E/S avec une CPU de 100 GHz. »

Les premiers résultats de DataCore venant confirmer la puissance de Parallel I/O ont été publiés fin 2015. Les nouveaux résultats, qui montrent que les performances ont été multipliées par trois, ont été obtenus sur la même plate-forme de serveurs afin de démontrer le potentiel et les perspectives d'évolution de la nouvelle architecture d'E/S parallèle et logicielle. Et ce n'est qu'un début.


Des performances record

Pour démontrer la puissance d'E/S du système dans les environnements de base de données exigeants, DataCore a choisi le test SPC-1 du Storage Performance Council, la norme d'excellence utilisée par tous les principaux fabricants de solutions de stockage pour mesurer les performances d'E/S, le ratio performances-prix et le temps de réponse. Pour ce test, DataCore a utilisé le serveur prêt à l'emploi basé sur Intel Lenovo System x3650 M5.

Les 1 510 090,52 SPC-1 IOPS™ ont été obtenus avec le coût total de possession, du logiciel et de trois ans de support, pour un total de 136 758,88 $. Cela a permis d'obtenir un ratio SPC-1 Price-Performance™ de 0,09 $ par SPC-1 IOPS™, soit plus de huit fois moins que tous les systèmes haut de gamme les plus performants qui ont obtenu plus d'un million de SPC-1 IOPS™[3].

Le logiciel DataCore Parallel Server a obtenu la troisième place en matière de SPC-1 IOPS™, derrière deux systèmes coûtant plus de 2 millions de $. Seuls les systèmes Huawei OceanStor 18800V3 (à un prix total de 2 370 760 de $) et Hitachi VSP G1000 (à 2 003 803 $) ont obtenu de meilleurs résultats SPC-1 IOPS™ que la solution à 136 759 $ de DataCore. Contrairement à ces deux systèmes de stockage, qui fournissent uniquement des fonctions SAN externes, le logiciel DataCore Parallel Server a également exécuté les charges de travail de base de données de calcul d'entreprise et OLTP dans le même package compact.

Mieux encore, la configuration de DataCore a délivré le meilleur temps de réponse jamais enregistré par le test SPC-1 (100 microsecondes à 100 % de charge), soit des performances au moins 7 fois supérieures à tous les systèmes, y compris les systèmes à plusieurs millions de dollars et les baies 100 % flash. En termes d'encombrement, le système dans sa totalité occupe seulement 4U (sept pouces verticaux) dans un rack standard de 19 pouces. Ce résultat contraste fortement avec les autres systèmes atteignant le million de SPC-1 IOPS™, qui occupent plusieurs armoires de 42U et sont donc beaucoup plus gourmands en termes d'espace de centre de données, de puissance et de refroidissement.

DataCore occupe désormais les deux premières places dans la catégorie SPC-1 Price-Performance SPC-1™[4] (le système précédent DataCore™ SANsymphony™, qui fonctionne sur une configuration hyperconvergée utilisant un serveur Lenovo System x similaire, a enregistré un ratio SPC-1 Price-Performance™ record de 0,08 $/SPC-1 IOPS™[5]). « C'est essentiellement notre logiciel qui explique la différence entre nos premiers et seconds résultats SPC-1 », fait remarquer Ziya Aral, qui a ensuite répondu à la question qui vient tout de suite à l'esprit : comment cela a-t-il été possible ? « Bien sûr, la plate-forme matérielle est importante, le multitraitement également, ainsi que la performance des E/S, mais c'est l'architecture logicielle qui constitue l'élément essentiel. À l'origine, le système DataCore a été conçu pour les architectures parallèles... mais à cette époque, ce type d'architecture comprenait 4, 8 ou 12 CPU au maximum. Aujourd'hui, nous fonctionnons sur des plate-formes standard avec 72, 144 voire 288 cœurs de CPU logiques, des chiffres qui devraient doubler de plus en plus rapidement, selon la version actualisée de la loi de Moore. »

M. Aral poursuit : « La solution Parallel Server est conçue pour tirer parti de cette évolution des architectures informatiques, non seulement aujourd'hui, mais également dans le futur. Ce logiciel remet en question notre interprétation précédente : ce que nous considérions auparavant comme un bien précieux est aujourd'hui en surplus, et le logiciel doit en tirer parti. »


Produit testé : DataCore™ Parallel Server pour systèmes hyper-convergés et de serveurs
DataCore a certifié ses résultats en utilisant le logiciel DataCore Parallel Server sur un serveur multi cœur 2U compact Lenovo System x3650 M5 équipé de processeurs de la série Intel® Xeon® E5-2600 v3 ainsi que de systèmes de stockage SSD flash et sur disque.
Le logiciel DataCore Parallel Server transforme les serveurs standard en serveurs parallèles destinés aux applications pour lesquelles un nombre élevé d'IOPS et une faible latence constituent des critères essentiels. La technologie d'E/S parallèles de DataCore exécute simultanément et dans plusieurs cœurs de CPU un grand nombre de flux d'E/S indépendants, réduisant ainsi de façon significative les temps de latence du traitement des E/S. Cette technologie supprime les limites et les engorgements sérialisés des E/S qui réduisent le nombre de machines virtuelles (VM), de bureaux virtuels (VDI) et de charges de travail d'application pouvant être consolidés sur une plate-forme de serveurs ou hyperconvergée. Elle permet au contraire de traiter bien plus de tâches par serveur et accélère les applications intensives en E/S.
Le logiciel DataCore Parallel Server est désormais disponible pour les partenaires OEM de DataCore, et il est actuellement évalué par les fournisseurs de serveurs et de systèmes. Sa disponibilité générale est prévue pour le 2e trimestre 2016.
Hyper-consolidation et productivité nouvelle génération avec la technologie d'E/S parallèles de DataCore
L'importance pratique et les avantages commerciaux liés aux résultats record obtenus par DataCore Parallel Server peuvent être considérés depuis différents points de vue :
  • Les serveurs constituent la nouvelle solution de stockage : Les charges de travail intensives en E/S, qui nécessitaient auparavant d'importants investissements dans du matériel SAN dédié ou des baies externes d'entreprise, peuvent désormais être traitées avec du matériel relativement peu coûteux, compact et prêt à l'emploi équipé du logiciel DataCore Parallel Server.
  • Une seule machine est plus facile à utiliser que plusieurs : Les entreprises n'ont plus besoin de répartir leurs applications intensives en E/S sur des centaines de serveurs pour réduire leur dépendance aux équipements dédiés. Elles peuvent exécuter ces programmes tels quels sur un petit nombre de serveurs low-cost, le tout sans complexité, délais et frais indus.
  • Hyper-Consolidation versus prolifération des serveurs : Plusieurs années d'initiatives en matière de virtualisation et de traitement des E/S en série à l'intérieur des serveurs ont fortement contribué à la faible densité en machines virtuelles. En faisant fonctionner plusieurs cœurs de CPU en E/S, DataCore permet aux clients d'exécuter les tâches de 10 serveurs sur un ou deux serveurs.
Le logiciel Parallel Server de DataCore permet de tirer pleinement parti des capacités de calcul parallèle inexploitées des serveurs x86 normalisés, mais également de bénéficier de la fonctionnalité d'E/S indispensable pour satisfaire les besoins actuels élevés des applications commerciales de niveau 1. Les entreprises bénéficient ainsi d'une productivité considérablement accrue et réalisent d'importantes économies en consolidation de serveurs. Pour plus d'informations, rendez-vous sur la page www.datacore.com/products/parallel-io.

À propos du Storage Performance Council
Le Storage Performance Council (SPC) est un organisme de normalisation indépendant focalisé sur le secteur des solutions de stockage. Le SPC a créé le premier outil de mesure des performances normalisé ciblé sur les besoins et les préoccupations du secteur des solutions de stockage. De l'évaluation au niveau du composant jusqu'à la mesure des systèmes complets de stockage distribué, le portefeuille de tests du SPC fournit des mesures auditées indépendamment, rigoureuses et fiables pour les performances, les performances prix et la consommation d'énergie. Pour en savoir plus sur le SPC et ses tests, rendez-vous sur la page : http://www.StoragePerformance.org.
Storage Performance Council, SPC-1, SPC-1 IOPS, SPC-1 Price-Performance et SPC-1 Result sont des marques commerciales ou des marques déposées du Storage Performance Council.





mardi 19 avril 2016

CIO: Cholet sécurise ses infrastructures au service des citoyens

La ville de Cholet a choisi la solution de virtualisation du stockage SANsymphony-V de DataCore Software

Dans le département de Maine-et-Loire, Cholet est une sous-préfecture.

La sous-préfecture de Maine-et-Loire a dupliqué son infrastructure pour la sécuriser et garantir la continuité des services aux citoyens et aux agents.

Avec 56000 habitants, Cholet est la deuxième ville du Maine et Loire et la 93ème ville de France. Elle se targue d'être en avance en matière d'e-administration en ayant des services en ligne bien au delà du minimum comme l'Etat Civil, par exemple pour gérer les inscriptions aux activités culturelles. La ville s'est équipée en 2009 d'une ferme de 6 serveurs virtuels gérés sous VMware ESX et une baie de stockage IBM N3600 de 4 To utiles. Mais une telle installation sans duplication ne permettait pas de garantir la haute disponibilité. La mise en place d'un PCA a été décidée en 2012.

L'infrastructure a alors été scindée en deux avec mise en oeuvre de chaque moitié dans deux salles distantes appartenant à la mairie. Les deux salles sont reliées par un réseau en fibre optique iSCSI.

La baie de stockage existante n'était plus fabriquée et la ville n'a pas souhaité la remplacer par une paire de baies plus récentes. En passant par l'UGAP qui référençait l'offre, la ville de Cholet a choisi la solution de virtualisation du stockage SANsymphony-V de DataCore Software. Cette solution a permis d'équiper la deuxième salle d'un matériel différent de la première : une baie HP P2000 de 4To et deux serveurs HP DL7. L'ensemble a été intégré par Pentasonic pour un coût global de 57 000 euros alors que l'acquisition de solutions similaires dans les deux salles serait revenue à 120 000 euros. La mise en oeuvre du PCA a duré trois mois dont trois jours de paramétrage de la solution Datacore.

Les nouveaux équipements ont été installés dans la salle principale et les anciens dans la salle de secours. Les fonctionnalités Failover & Failback permettent la réplication synchrone, la répartition de charge et la reprise automatique en cas d'incident sur une des salles. Lors de tests d'interruptions volontaires, les machines virtuelles ont pu être redémarrées en cinq minutes, ce qui est largement suffisant pour la ville.

Fin 2013, le projet a été étendu aux données bureautiques avec l'adjonction dans chaque salle d'une baie EMC VNX3100 dotée de de disques SATA (moins rapides mais plus économiques que les disques SAS des autres baies) de 7 To utiles. Cette nouvelle intégration, par Pentasonic, a été réalisée en deux jours. En tout, il y a donc trois sortes de stockage pour un total de 12 To répliqués. Un cache de 600 Go en disques SSD est également gérés dans les baies. La solution en place optimise le placement des données en fonction de leur utilisation.

mercredi 13 avril 2016

HPC Review: DataCore Software explose les performances du stockage d’entreprise

Da­ta­Core Soft­ware, ac­teur ma­jeur du Soft­ware-De­fi­ned Sto­rage Pa­rallélisé et des so­lu­tions Vir­tual SAN hyper convergées, vient d’an­non­cer un nou­veau re­cord du monde ob­tenu avec l’outil de me­sure SPC-1 du Sto­rage Per­for­mance Coun­cil, le plus re­connu de l’in­dus­trie. Nous avons in­ter­viewé son fon­da­teur et CEO, George Texieira à l’oc­ca­sion de son pas­sage à Paris.
Cet ex­ploit est at­teint en grande par­tie grâce à la tech­no­lo­gie Pa­ral­lel I/O soft­ware de Da­ta­Core qui tire parti de la puis­sance in­ex­ploitée des pro­ces­seurs multi cœur. Da­ta­Core a cer­tifié les résul­tats ob­te­nus sur un ser­veur multi cœur 2U Le­novo x3650 M5 animé par des pro­ces­seurs Intel Xeon E5-2600 v3 avec un mélange de SSD flash et de disques tra­di­tion­nels. Sur cette même pla­te­forme, Da­ta­Core a éga­le­ment en­re­gistré les temps de réponse les plus ra­pides ja­mais at­teints, même par rap­port aux so­lu­tions full flash. Ce nou­veau re­cord po­si­tionne Da­ta­Core comme lea­der ab­solu en ratio per­for­mances prix SPC-1 glo­bales avec un coût de 8 cents par IOPS SPC-1.
« Avec ces pre­miers résul­tats cer­tifiés, Da­ta­Core a établi un jalon pour démon­trer la per­for­mance de notre tech­no­lo­gie de pa­ralléli­sa­tion des entrées-sor­ties et nos ca­pa­cités en matière d’hyper conver­gence. Pour nous, ce n’est que le début. Ob­ser­vez les me­sures de per­for­mances à venir, les­quels intègre­ront des confi­gu­ra­tions multi nœud à haute dis­po­ni­bi­lité et démon­trant les entrées-sor­ties aussi bien à l’intérieur qu’à l’extérieur des ser­veurs, et qui montre la voie pour le futur de l’en­semble des systèmes de sto­ckage », déclare Ziya Aral, président de Da­ta­Core Soft­ware. « Nous com­mençons à peine à démon­trer le plein po­ten­tiel de notre ar­chi­tec­ture d’entrées-sor­ties in­trinsèque­ment pa­rallélisée. »
Les résul­tats : des per­for­mances prix re­cord pour le sto­ckage et l’hyper conver­gence
Pour ce test, Da­ta­Core a uti­lisé un système tran­sac­tion­nel OLTP hyper convergé de classe en­tre­prise et des ap­pli­ca­tions de bases de données sen­sibles à la la­tence et dont les per­for­mances ont été mesurées à 459 290,87 IOPS SPC-1, avec un coût total de 38 400,29 dol­lars com­pre­nant le matériel, les lo­gi­ciels et trois ans de sup­port tech­nique, et ob­te­nant un ratio prix-per­for­mance SPC-1 re­cord de 8 cents par IOPS SPC-1. Cela représente une amélio­ra­tion de 300% com­paré au précédent re­cord de 0,24 dol­lars par SPC-1 IOPS détenu par le système In­for­trend EonS­tor DS 3024B et moins de 25% du coût des systèmes de sto­ckage haut de gamme EMC VNX 8000, Ne­tApp EF560 All Flash, Dell Sto­rage SC4020 et HP 3PAR Sto­re­Serv 7400.
Da­ta­Core et IBM sont les seules en­tre­prises ayant sou­mis aux tests SPC-1 des systèmes hyper convergés où les charges de tra­vail liées au sto­ckage et aux ap­pli­ca­tions SPC-1 sont exécutées sur la même plate-forme. Cela si­gni­fie que le coût de 38 400,29 dol­lars avancé par Da­ta­Core com­prend non seule­ment les com­po­sants de sto­ckage, mais aussi toutes les res­sources du ser­veur hôte et le lo­gi­ciel hy­per­vi­seur néces­saire à l’exécu­tion des charges de tra­vail de classe en­tre­prise des bases de données tran­sac­tion­nelles de type OLTP générés par l'ou­til de test. A titre de com­pa­rai­son, le seul autre système hy­per-convergé avec des résul­tats SPC-1 ayant été ren­dus pu­blics est un ser­veur IBM Power 780. Avec un coût du ratio Prix-Per­for­mance SPC-1 de 4,56 dol­lar par IOPS SPC-1. Ce système at­teint 780 081,02 IOPS SPC-1 pour un coût total de 3 557 709,00 dol­lars, soit en­vi­ron 91 fois plus coûteux que la so­lu­tion sou­mise par Da­ta­Core et Le­novo.
La tech­no­lo­gie de pa­ralléli­sa­tion adap­ta­tive des entrées-sor­ties de Da­ta­Core ex­ploite plei­ne­ment la puis­sance des pro­ces­seurs multi cœur
Ces per­for­mances re­mar­quables sont at­tribuées en grande par­tie à la tech­no­lo­gie de pa­ralléli­sa­tion adap­ta­tive des entrées-sor­ties de Da­ta­Core in­trinsèques à la concep­tion de la pla­te­forme soft­ware de­fi­ned sto­rage SAN­sym­phony-V. Cette dernière exécute si­mul­tanément de nom­breux flux d’entrée-sor­tie indépen­dants sur plu­sieurs cœurs de pro­ces­seur, rédui­sant considéra­ble­ment le temps de la­tence pour ser­vir et trai­ter les entrées-sor­ties en ti­rant plei­ne­ment parti des ser­veurs abor­dables tels que les systèmes Le­novo Sys­tem X. Les ser­veurs concur­rents séria­lisent les entrées-sor­ties, ce qui a pour conséquence de li­mi­ter leur débit et de ra­len­tir leurs temps de réponse.
« Le­novo nous a ini­tia­le­ment ap­proché pour me­su­rer les per­for­mances de la charge de tra­vail d’en­tre­prise exi­geante que me­sure l’outil SPC-1. Ils vou­laient la preuve que nous pour­rions ex­ploi­ter plei­ne­ment la puis­sance de leurs ser­veurs multi cœur compte tenu de l'abon­dance des re­ven­di­ca­tions de per­for­mances in­fondées qui cir­culent dans les mi­lieux de l’hyper conver­gence », pour­suit George Teixeira. « Ils ont vite réalisé qu’avec la pa­ralléli­sa­tion des entrées-sor­ties, nous te­nions un bo­lide entre nos mains. »
« Le­novo est heu­reux de col­la­bo­rer avec Da­ta­Core pour bou­le­ver­ser le marché du sto­ckage et pou­voir pro­po­ser à nos clients les meilleures per­for­mances au meilleur coût de toute l'in­dus­trie », a déclaré Chris Frey, Vice-président et Ge­ne­ral Ma­na­ger de Le­novo pour l’Amérique du Nord. « Les résul­tats SPC-1 re­cord de Da­ta­Core sur les ser­veurs Le­novo Sys­tem X démontrent la per­for­mance, l'in­no­va­tion et la fia­bi­lité que Le­novo est ca­pable de pro­cu­rer pour sa­tis­faire les be­soins crois­sants de nos clients en matière de sto­ckage. »
Le test ri­gou­reux de per­for­mances SPC-1 est conçu pour démon­trer les per­for­mances d'un système en matière de charges de tra­vail cri­tiques de classe en­tre­prise que sont généra­le­ment les en­vi­ron­ne­ments de bases de données et de trai­te­ment tran­sac­tion­nels. La confi­gu­ra­tion vérifiée qui a été testée et chiffrée com­prend le lo­gi­ciel de pa­ralléli­sa­tion des entrées-sor­ties Da­ta­Core SAN­sym­phony-V sur un ser­veur multi cœur Le­novo Sys­tem x3650 M5 animé par des pro­ces­seurs Intel Xeon E5-2600 v3 sous Mi­cro­soft Win­dows Ser­ver, équipé de 16 SSD et 8 disques durs. Le lo­gi­ciel Da­ta­Core prend éga­le­ment en charge Mi­cro­soft Hy­per-V, VM­ware ESXi, Linux KVM et d'autres so­lu­tions basées sur un hy­per­vi­seur. Le lo­gi­ciel peut éga­le­ment s’exécuter di­rec­te­ment sur les ser­veurs Win­dows lorsque la vir­tua­li­sa­tion des ser­veurs n’est pas en­vi­sa­geable.

lundi 11 avril 2016

HPC Review: Interview: George Teixeira, fondateur et CEO de l’entreprise

our commenter ces résultats obtenus par DataCore Software, nous avons interviewé George Teixeira, fondateur et CEO de l’entreprise à l’occasion de son récent passage à Paris.
HPC Review : Quelle est votre activité ?
George Teixeira : DataCore a été fondé en 1998. Notre vision au départ était très simple à formuler : répliquer de façon logicielle ce qu’accomplissaient les contrôleurs de stockage matériels. Nous avons aujourd’hui 10 000 clients et 30 000 déploiements de par le monde. Nous sommes les pionniers en matière de virtualisation du stockage et venons d’innover avec notre technologie Parallel I/O, qui procure les meilleurs performances et temps de réponse en matière de stockage de l’industrie.
Nos solutions logicielles sont composées des plateformes SANsymphony et d’hyperconvergence VirtualSAN. Ensemble, ces deux solutions améliorent les performances et la réactivité de l’infrastructure de stockage des entreprises. Elles améliorent également la productivité des serveurs.
HPC Review : De quelle façon arrivez-vous à ce résultat ?
De notre point de vue, le plus grand bénéfice que nous puissions apporter à nos clients est de leur procurer un avantage concurrentiel en améliorant les performances de leur infrastructure de stockage.
Nous venons tout récemment de remporter le record mondial de performances, mesuré par les outils de test du Storage Performance Council, lesquels constituent le seul protocole d’évaluation indépendant et validé par les pairs de l’industrie.
Quels en sont selon vous les principaux bénéfices pour les entreprises ?
Ils sont de deux ordres. D’une part elles peuvent à infrastructure égale, exécuter des applicatifs d’entreprises critiques qui ont besoin de temps de réponse et de latence extrêmement réduits. En second lieu, cela leur permet, toujours à périmètre égal, d’exécuter un plus grand nombre de machines virtuelles sans y perdre en performances grâce à l’amélioration de la réactivité des ressources de stockage qui la composent. L’élimination des traditionnels goulets d’étranglement permet ainsi d’exécuter des environnements gourmands en ressources comme des bases de données Oracle, SQL Server ou SAP Hana ou encore de type VDI.
Nos solutions de virtualisation du stockage permettent d’utiliser les ressources de stockage de tous les constructeurs sans limitation. Et franchement, nous contribuons à l’amélioration significative des infrastructures de stockage existantes. En second lieu, nous améliorons leur performance et leur productivité. Grâce à l’amélioration des performances d’un facteur 3 à 20, nos solutions permettent par conséquent d’exécuter 3 à 20 fois plus d’applicatifs d’entreprise, et cela inclut également les environnements virtualisés Microsoft Hyper-V et VMware.
Typiquement dans des contextes d’infrastructure à base de clusters Microsoft SQL, Windows Server ou Oracle ou SAP composés de 8 ou 10 nœuds, nos solutions logicielles permettent de faire exactement la même chose avec seulement deux nœuds !
Comment expliquez-vous cette amélioration spectaculaire des performances ?
En termes de performances et de latence, nous sommes le détenteur actuel du record de performance en matière de stockage, mesurée par le Storage Performance Council, un organisme indépendant spécialisé dans la mesure des performances de serveurs de stockage.
La manière dont nous y sommes arrivés est simple : nos logiciels sont capables d’exploiter toute la puissance des processeurs multi-cœur actuels. Au fil des progrès technoogiques, les serveurs équipés de processeurs Intel comportnet 8, 12 ou même davantage de cœurs. Le problème est que les développeurs de logiciels destinés au stockage ne se sont guère souciés d’exploiter cette puissance mise à leur disposition.
Sur quel aspect avez-vous travaillé pour arriver à ce résultat ?
DataCore s’est penché sur ce réservoir de puissance inexploité de façon à exploiter les coeurs de processeurs disponibles dans les serveurs actuels et ainsi accélérer de façon résolument efficace les entrées-sorties, avec pour résultat une multiplication des performances comprise entre 3 et 20 fois meilleure que le plus rapide des équipements actuellement disponibles. Avec cette amélioration significative des performances, cela permet à une infrastructure de stockage de réagir de 3 à 20 fois plus rapidement sur des requêtes de bases de données et les exigences des applicatifs d’entreprise. Cette productivité à la hausse se traduit également par une consolidation plus efficace, avec une réduction de coûts concrètes et élevées en matière de consommation énergétique, d’espace occupé au sol et de simplicité d’administration.
Avez-vous des chiffres pour étayer vos affirmations ?
Certainement, les résultats que nous mettons en avant ont été établis par le Storage Performance Council à l’aide du seul outil de mesure de performances qui est documenté, validé par les acteurs de l’industrie. Nous sommes actuellement le leader absolu en matière de rapport performances-prix, avec un coût record de 8 cents par SPC—1 IOPS. Les mesures du Storage Performance Council se traduisent également par des temps de latence les plus bas jamais mesurés, y compris comparés à des systèmes comportant des ressources de stockage en flash. Pour mémoire, notre serveur testé comportait des unités de stockage flash et traditionnelles.
Plus étonnant encore, ce résultat a été obtenu avec un serveur Lenovo coûtant moins de 40 000 dollars, et a fait mieux que des systèmes coûtant plusieurs centaines de milliers ou même des millions de dollars. Je sais que c’est difficile à croire, mais comprenez bien que contrairement à nos concurrents, les logiciels DataCore Software exploitent l’intégralité des coûers disponibles sur les processeurs des serveurs, là où les autres éditeurs de logiciels n’exploitent qu’un ou deux des cœurs disponibles. Nous sommes très fiers de ce résultat, c’est une véritable révolution pour la productivité et l’industrie du stockage.

vendredi 8 avril 2016

Selon DataCore, le problème de performances constaté sur toutes les solutions de stockage...

http://www.lemagit.fr/actualites/4500271624/DataCore-une-simple-mise-a-jour-logicielle-demultiplie-les-performances-du-stockage
En parallélisant les entrées/sorties dans la dernière mise à jour de son SDS SANsymphony-V, DataCore a apporté à un serveur basique les performances de baies de stockage qui valent 50 fois plus cher.

Et si la gestion des baies de stockage physiques comme virtuelles était complètement en retard par rapport à l’évolution des serveurs ? « Sur des machines modernes, dans lesquels on trouve plusieurs cœurs de processeur, les entrées-sorties vers les disques ne sont jusqu’ici prises en charge que par un seul cœur. Il en résulte un goulet d’étranglement qui affecte autant les contrôleurs des baies de stockage que les logiciels de Software Defined Storage (SDS) », a ainsi lancé Pascal Le Cunff, Directeur Commercial de DataCore pour la France et l’Europe du Sud, dans le cadre de la mise à jour du SDS SANsymphony-V 10 en version SP4. Cette mise à jour comprend justement un mécanisme inédit qui parallélise les I/O sur tous les cœurs présents.
Et force est de constater qu’au banc d’essai SPC-1 IOPS, le résultat est sans appel : à partir d’un serveur 2U basique de marque Lenovo, comportant 28 cœurs répartis sur deux Xeon E5v3, 544 Go de RAM, 16 disques SSD et fonctionnant sous Windows 2008 R2, SANsymphony-V 10 atteint le score de 459 291 IOPS.
C’est-à-dire que cette configuration est la 9ème baie de stockage SAN la plus rapide du monde.
Elle est juste derrière la baie IBM Storwize V7000 et meilleure que les baies très haut-de-gamme IBM DS8870,HPE 3PAR P10000 et EMC VNX8000. Mieux : quand elle est poussée au maximum de ses lectures/écritures sur disque, son temps de réponse aux applications reste de 0,32 millisecondes, soit un temps près de quatre fois meilleur que la baie de stockage la plus rapide du monde, l’Hitachi VSP G1000 HAF (1,15 millisecondes de temps de réponse).

La baie de stockage au meilleur rapport prix/performance du monde

Le record, surtout, réside dans le rapport prix/IOPS. Pour 38.000 dollars, le serveur Lenovo équipé de SANsymphony-V 10 atteint 67,7% des performances d’une baie NetApp FAS8080EX All-Flash (5ème du classement) qui coûte, elle, 1,9 million de dollars, soit 50 fois plus cher.
Le ratio communément accepté jusque là était qu’un serveur doté d’une solution de SDS coûtait en moyenne 50% moins cher qu’une baie de stockage aux caractéristiques équivalentes. « Avec un coût de 0,08 cents de dollars par IOPS SPC-1, un serveur générique sous SANsymphony-V est tout simplement – et de très loin – la baie de stockage haute performances la moins chère du monde », se félicite Pascal Le Cunff.
Il est à noter qu’aucun autre éditeur de SDS (EMC avec ScaleIO, HP avec StoreVirtualVMware avec VSAN,Atlantis avec USX, l’Open source Ceph, etc.) n’a daigné soumettre son produit installé sur un serveur x86 aux tests SPC-1.
Et parmi les fabricants de systèmes hyperconvergés (des serveurs x86 avec un SDS préinstallé), pratiquement tous brillent aussi par leur absence, en particulier Nutanix et SimpliVity qui prétendent pourtant disposer d’une technologie propriétaire d’accélération.
Seul IBM a joué le jeu : son infrastructure hyperconvergée Power780 atteint le score de 780 081 IOPS SPC-1 (soit 1,6 fois mieux que la configuration testée par DataCore), mais son prix est de… 3,56 millions de dollars.
« Honnêtement, en tant plus que plus ancien vendeur de solutions de SDS, nous avons eu très peur quand nous avons vu débarquer toutes ces solutions concurrentes. Mais après une période de flottement, nous avons tout de même réalisé un très bon quatrième trimestre en 2015. Parce que nous sommes les seuls à parler de performances. Et, grâce à ce test, nous avons compris pourquoi personne d’autre ne le faisait », commente Pascal Le Cunff.

Paralléliser le pilote d’accès au SAN

Selon DataCore, le problème de performances constaté sur toutes les solutions de stockage viendrait du pilote dont se sert l’hyperviseur pour accéder à la baie SAN : alors que toutes les machines virtuelles sont réparties sur tous les cœurs présents pour exécuter leur code, toutes leurs entrées-sorties seraient exécutées de manière séquentielle sur un seul cœur. L’idée de DataCore est donc, au travers d’une technologie que l’éditeur appelle Adaptive Parallel IO, de paralléliser les accès disque en autant de flux qu’il y a de cœurs présents. En clair de découper l’exécution de son pilote en threads parallèles, ce que manifestement tous les autres fournisseurs de stockage ont oublié de faire.
« Il faut mesurer l’enjeu stratégique. Il y a deux ans, nous avons vendu à un client qui avait besoin de beaucoup d’IO 12 serveurs SANsymphony-V. Cette année, nous ne lui en vendrons plus qu’un seul. Tout comme la virtualisation a réduit les ventes de serveurs, cette technique va réduire la quantité de contrôleurs de baies et de licences de SDS. Nous le faisons car notre stratégie est de miser sur des clients fidèles. Mais il est certain que cela ne sera pas forcément compatible avec les business plans d’autres fournisseurs qui misent sur la quantité des ventes », analyse Pascal Le Cunff.

Pour des infrastructures hyperconvergées classiques ou seulement stockage

DataCore vend sa solution sous deux formes, chacune bénéficiant de la nouvelle technologie Adaptive Parallel IO.
SANsymphony-V a besoin de fonctionner seul sur un serveur matériel autonome, qui fait ainsi office d’infrastructure hyperconvergée uniquement destinée au stockage très haute performances mais pas à l’exécution de machines virtuelles. Son logiciel Virtual SAN est en revanche plus classique, puisqu’il s’installe aux côtés d’un hyperviseur VMware ESX dans la même infrastructure convergée. Les performances de cette dernière sont dans ce cas réparties entre l’exécution des VM et les services de stockage.
Outre les lectures/écritures vers une baie SAN virtuelle, les logiciels de DataCore apportent en effet des fonctions supplémentaires comme l’auto-tiering et le snapshot. Il est d’ailleurs à noter que, comme le logicielViPR d’EMC, les produits de DataCore sont capables d’utiliser, en plus des disques internes du serveur qui les exécute, des baies externes de marque quelconque et même des services en cloud pour ajouter jusqu’à 15 tiers de stockage.
« Nous pouvons par exemple assurer la duplication en temps réel d’une base de données sur des disques SSD ultra-rapides vers un stockage bien moins cher pour la reprise d’activité en cas d’incident. Alors que les fabricants recommandent généralement d’acheter deux fois la même baie pour assurer la redondance », dit Pascal Le Cunff.

lundi 4 avril 2016

Des analystes ESG dévoilent les résultats de tests dans leur rapport de validation des solutions DataCore - Parallel I/O et le Top 10 des plus grands défis de stockage




Des analystes ESG dévoilent les résultats de tests dans leur rapport de validation des solutions DataCore


Parallel I/O et le Top 10 des plus grands défis de stockage

DataCore annonce les résultats d'une nouvelle évaluation et de tests récemment effectués par Enterprise Strategy Group Lab (ESG) sur les logiciels DataCore SANsymphony et Hyper-converged Virtual SAN. Le rapport souligne également les résultats de l'enquête d’ESG sur le « Top 10 des plus gros défis en matière de stockage. » Les tests en laboratoire, effectués de façon indépendante, ont été réalisés pour évaluer la valeur ajoutée des solutions DataCore en matière d’infrastructures de stockage virtualisées et hyperconvergées, destinées aux centres de données, valider la souplesse et la facilité d’administration dans un environnement hétérogène et fortement virtualisé, examiner la performance, l'efficacité et la disponibilité des solutions DataCore Software dans des configurations entièrement virtualisées et hyperconvergées.

« Les solutions SANsymphony et Hyper-converged Virtual SAN de DataCore se sont avérés robustes, flexibles et réactives. L’entreprise est désormais dotée de capacités extrêmement pertinentes qui comptent vraiment pour les utilisateurs. Nous avons trouvé le logiciel simple à mettre en œuvre et capable de gérer la virtualisation de toute une infrastructure de stockage avec des fonctionnalités de classe entreprise tout en améliorant ses performances », déclare Tony Palmer, analyste senior, ESG Lab. «ESG Lab a été particulièrement impressionné par la technologie de gestion des entrées-sorties parallélisées de DataCore et sa capacité à offrir des performances de classe entreprise sur du matériel standard à faible coût. »
Après avoir terminé le test, Palmer ajoute : « Il serait bénéfique pour toute organisation qui envisage ou qui est en train de mettre en œuvre un projet de virtualisation informatique, d’examiner attentivement la solution de DataCore Software. »

Faits saillants du rapport de validation ESG Lab :
·        Infrastructures de données hyperconvergées de classe entreprise
ESG Lab a constaté que la virtualisation de l'infrastructure avec DataCore Hyper-converged Virtual SAN est intuitive et simple. Lors de l'évaluation, une paire de serveurs exécutant un hyperviseur et un Hyper-converged Virtual SAN DataCore  ont formé une plateforme à haute disponibilité pour exécuter de multiples simulations d’applications et de charges de travail d'entreprise. Lorsqu’une panne de serveur a été simulée avec une mise hors tension brutale, les machines virtuelles et les ressources de stockage ont immédiatement et automatiquement basculé sur l’autre nœud. Un nouveau serveur a ensuite été installé et ajouté au cluster de basculement, et ce de façon transparente et simple, tandis que les applications sont restées disponibles et ont continué à fonctionner sans interruption.
ESG a également testé, analysé et conclu que DataCore permet de dépasser les performances traditionnelles de l’hyperconvergence et supporte les applications de classe entreprise et des charges de travail de stockage exigeantes. Les solutions hyperconvergées de DataCore offrent un gain de performances et des capacités d’accélération adaptative des applications dont l’élément le plus important est la parallélisation des entrées-sorties.
« Les solutions DataCore présentent la particularité d’avoir été hyperconvergées bien avant que ce terme existe dans l’industrie. Il n’est donc pas surprenant que son offre hyperconvergée soit robuste, offre la haute disponibilité et un rapport performances-prix très significatif avec un éventail complet de fonctionnalités de classe entreprise que DataCore a perfectionnées depuis près de deux décennies », souligne Palmer.

·        Meilleurs temps de réponse et le meilleur rapport performances-prix de l’industrie
La technologie logicielle d’entrées-sorties parallélisée de DataCore est conçue pour exploiter de manière adaptative les processeurs multi-cœur disponibles afin d'optimiser et d’ordonnancer le traitement des entrées-sorties sur plusieurs cœurs simultanément. Le logiciel détecte activement la charge d'entrées-sorties générée par plusieurs machines virtuelles conjointement et assigne dynamiquement autant de cœurs de processeur que nécessaire pour traiter la charge d'entrées-sorties. Cela permet à DataCore de tirer pleinement parti des technologies de serveur multi-cœur modernes. Ses solutions éliminent les goulets d'étranglement, accélèrent les performances des applications et sont capables de gérer des charges de travail et une densité de machines virtuelles bien plus importantes par serveur.
ESG Lab a analysé les résultats obtenus par DataCore au rapport de test  SPC-1 récemment publié par le Storage Performance Council. « DataCore a obtenu un excellent résultat de 459 290 SPC-1 IOPS™ à 100% de charge avec un temps de réponse moyen de seulement 0,32 millisecondes dans une configuration hyperconvergée », poursuit Palmer. « Le résultat de 0,32 milliseconde à 100% de charge est le temps de réponse le plus rapide jamais enregistré par le test SPC-1, et met en valeur la puissance du traitement parallélisé des entrées-sorties pour réduire de manière significative le temps nécessaire aux applications pour accéder, stocker et mettre à jour leurs données. »
DataCore a établi un nouveau record en matière de rapport prix-performances SPC-1. A pleine charge, SANsymphony a répondu avec près de deux ordres de grandeur en dessous du seuil de réponse de 30 millisecondes fixé par le Storage Performance Council. A 0,32 millisecondes, il est trois fois plus rapide que le seuil d'une milliseconde considéré comme la norme pour les systèmes de stockage flash.
ESG a déclaré que le résultat SPC-1 obtenu par DataCore prouve sa pertinence pour les applications sensibles aux temps de réponse (par exemple, la virtualisation et les charges de travail de bases de données, d’OLTP et d’ERP). Il démontre aussi les marges et l’évolutivité possibles vers des configurations et capacités toujours plus importantes.

·        Gestion du stockage VMware vSphere simplifiée grâce à l’auto-provisionnement des VVols
Les administrateurs recherchent la simplicité, la puissance et la granularité fine promises par vSphere Virtual Volumes (VVols). Cependant, la plupart des réseaux et systèmes de stockage actuels ne prennent pas en charge VVols. Avec DataCore pratiquement tout type de stockage devient compatible VVols. Cela permet aux administrateurs VMware vSphere de provisionner automatiquement des volumes virtuels à partir de pools de stockage virtuels et de déterminer instantanément la capacité et la classe de service requises pour leurs applications sans avoir à connaître quoi que ce soit sur le stockage ou le matériel sous-jacent.
ESG Lab a testé l’auto-provisionnement VVols de DataCore. Dans le scénario de test, ESG a mis en place des politiques Platinum, Gold, Silver et Bronze pour définir différents niveaux de service. DataCore a fait du provisionnement du stockage une fonction transparente et intégrée du processus de création de machines virtuelles. Les administrateurs sont ainsi en mesure de provisionner le stockage pour les machines virtuelles à l'aide de stratégies de stockage prédéfinies en fonction des règles de performances, de disponibilité et de localisation des données, sans jamais avoir à toucher à l’infrastructure de stockage.
DataCore a pris automatiquement en charge l'ensemble de la configuration en arrière-plan, ce qui relève habituellement de la responsabilité des administrateurs de stockage spécialisés dans les environnements de stockage traditionnels. ESG Lab a indiqué qu'il a été impressionné par la vitesse, la simplicité et l'exhaustivité de l'intégration de DataCore. Les machines virtuelles basées sur ces profils prédéfinis ont été créées en quelques minutes en utilisant les outils natifs de VMware. ESG note que cette fonctionnalité est particulièrement utile dans la mesure où le stockage existant dans les centres de données ne peut jamais être rendu compatible avec VVols une fois déployé. Le fait que SANsymphony étende la faculté d’auto-approvisionnement VVols aux investissements de stockage existants ainsi qu’aux nouveaux périphériques de stockage non compatibles VVols est une caractéristique particulièrement puissante.

  • Hiérarchisation automatique des ressources de stockage sur l’ensemble de l’infrastructure pour des taux performances-–prix optimisés
ESG Lab a également validé la valeur commerciale de la hiérarchisation automatisée du stockage réalisée par DataCore. Tous les tests de performance ont été réalisés en utilisant les outils de test pour simuler une charge de travail OLTP typique. ESG a d'abord mesuré la performance sur un pool de stockage non-hiérarchisé en utilisant un disque SAS. Ensuite, un SSD a été ajouté au pool de stockage. Le logiciel a immédiatement commencé le processus de rééquilibrage, en déplaçant (tiering) des blocs de données stratégiques (ou données fréquemment consultées) d’un disque SAS vers un disque flash aux performances plus élevées.
Après avoir terminé le processus de rééquilibrage, la solution DataCore a alloué toutes les ressources pour accomplir les opérations de stockage de l'application. L'effet de la hiérarchisation du stockage était immédiatement visible, le logiciel DataCore a rapporté un total de 1 392 IOPS, soit une amélioration de 700% par rapport au pool de stockage non hiérarchisé.

·        Disponibilité continue, clustering métropolitain, reprise après sinistre à distance, protection avancée des données, basculement automatisé et fonctionnalités d’autoréparation.
ESG Lab a confirmé que les solutions SANsymphony et Hyperconverged Virtual SAN de DataCore offrent un éventail de fonctionnalités avancées de protection des données à coût réduit, capables de satisfaire efficacement les exigences les plus strictes. La mise en miroir synchrone des données dans les zones métropolitaines, le basculement automatique et d'autoréparation, des fonctions de snapshots instantanés complets et incrémentiels, la protection continue des données (CDP – Continuous Data Protection) avec un possible retour en arrière (« roll-back in time »), et la réplication asynchrone des données à distance vers des sites de reprise après sinistre peuvent tous être utilisés, indépendamment du modèle ou de la marque de périphérique de stockage donné. Par exemple, les clients peuvent profiter d'un système hyperconvergé sur un site distant et en faire un site de secours pour les grands centres de données.
ESG note enfin que la capacité CDP s’est avérée facile à configurer et à utiliser, permettant un retour à un point précis dans le temps sans avoir à créer de multiples instantanés. Une solution idéale pour récupérer des applications ou configurations dans leurs états antérieurs à un incident survenu.

Le Top 10 des plus grands défis de stockage selon l’ESG Lab
Outre le rapport du laboratoire sur DataCore, ESG a récemment mené une enquête auprès de 373 professionnels de l'informatique qui ont été invités à identifier ce qu'ils considèrent comme leurs plus grands défis à l'égard de leur infrastructure de stockage. Comme on pouvait s'y attendre de la part d'un panel d'utilisateurs captif de la virtualisation de serveurs, un accent significatif a été mis sur la croissance et la protection des données (tous deux cités par 26% des répondants), ainsi que les frais de personnel et la migration des données (tous deux à 23%). L’élément le plus important et significatif cité par les répondants fut sans conteste le coût du matériel (27%) lequel a été le défi à relever le plus cité en matière de stockage.

En conclusion, à la flexibilité supplémentaire pour faire face à la croissance et au changement, s’ajoute la capacité de surmonter le coût total de possession, (y inclu les coûts liés à la hausse des effectifs et aux matériels) est devenue la motivation principale qui incite les entreprises à déployer des solutions de stockage définies par logiciel comme celles de DataCore.
Le rapport de test et l’enquête complets d’ESG Lab sont consultables ici.




À propos de DataCore
DataCore est un leader de la technologie SDS (Software-Defined Storage) et des logiciels d'E/S parallèles adaptatives, visant à exploiter les plateformes serveurs actuelles, performantes et rentables, pour relever le principal défi du stockage informatique, l’engorgement des E/S. Ses solutions complètes et flexibles de virtualisation du stockage et son Hyper-converged Virtual SAN libèrent les utilisateurs des lourdes tâches de gestion du stockage. Elles leur offrent une véritable indépendance à l’égard des fournisseurs de systèmes de stockage dont l’architecture est intrinsèquement liée au matériel. Les plateformes SDS de DataCore révolutionnent l’infrastructure de stockage et forment le pilier du datacenter orienté logiciel de nouvelle génération, assurant une rentabilité, une efficacité, une disponibilité et une simplicité inégalées. Pour en savoir plus, rendez-vous sur le site Web de DataCore à l’adresse www.DataCore.com ou contacter infoFrance@DataCore.com.