mardi 30 mai 2017

6è étude annuelle de DataCore sur l’état du marché Software-Defined Storage

ETUDE DATACORE

La sixième étude annuelle de DataCore sur l’état du marché SDS (Software-Defined Storage), du stockage hyper-convergé et du stockage sur le Cloud, révèle les principales motivations des entreprises en la matière, mais également leurs déceptions technologiques


Outre le fait que la technologie SDS est en tête des dépenses prévues en 2017, ce rapport révèle des informations surprenantes à propos des infrastructures hyper-convergées, de la technologie Flash et d’autres technologies très médiatisées



Paris, le 24 mai 2017 DataCore Software, acteur majeur des solutions hyper-convergées avec Virtual SAN , Software-Defined Storage et de Traitement parallèle des E/S, dévoile les résultats de son étude annuelle, ayant pour but de mesurer l’impact des principales solutions logicielles de stockage à travers le monde. Cette enquête mondiale examine les attentes, les déceptions, et les retours d’expérience de 426 professionnels qui utilisent ou évaluent les technologies SDS, stockage hyper-convergé et Cloud, pour répondre à des problématiques en matière de stockage de données. Les résultats se sont avérés surprenants, sur un échantillon représentatif de différentes industries, et sur un large éventail de charges de travail.

L’étude analyse ainsi les dépenses dédiées aux technologies de stockage telles que le SDS, la technologie Flash, le stockage hyper-convergé, le stockage sur Cloud privé et OpenStack. Le SDS arrive en première position des investissements prévus pour 2017 : 16% des entreprises sondées ont déclaré que le SDS représentait 11 à 25% de leur budget, et 13% ont répondu qu'il représentait plus de 25% des dépenses allouées au stockage (la part la plus élevée). Contre toute attente, les résultats ont montré que très peu de budget serait alloué en 2017 à des technologies plutôt répandues telles que OpenStack, avec 70% des entreprises interrogées ne prévoyant aucun investissement sur ce segment.

L’étude fait également ressortir les principales motivations des entreprises qui investissent dans le SDS :
·       Simplifier la gestion des différents types de stockage, à 55%;
·       S’approprier une technologie d’avenir, à 53%;
·       Éviter la dépendance à l’égard des fabricants de matériel de stockage, à 52%;
·       Prolonger la durée de vie des ressources de stockage existantes, à 47%.

Seulement 6% des entreprises interrogées ont déclaré ne pas envisager de passer au SDS.
 
A la question « A quels déceptions technologiques avez-vous fait face au sein de votre infrastructure de stockage? », trois principales réponses ont été données :
·       Les solutions de stockage dans le Cloud n’ont pas permis de réduire les coûts, à 31%;
·       Gérer le stockage Objet s’avère très difficile, à 29%;
·       La technologie Flash n’a pas permis de booster les applications, à 16%.
On note que les environnements où les problèmes de performance sont les plus sévères (et où la solution de stockage semble en être la cause principale) sont les bases de données et les applications d'entreprise (ERP, CRM, etc.). Le besoin d’accéder plus rapidement aux bases et analyses de données créé de nouvelles exigences en matière de technologies d’optimisation des performances ; un élément essentiel pour développer le business des entreprises et alimenter des technologies telles que l’IoT (Internet des Objets). Cependant, de nombreux professionnels de l’informatique constatent que les technologies actuelles conçues pour accélérer les performances et diminuer la latence, engendrent également parmi les applications existantes des perturbations importantes, une plus grande complexité et des coûts plus élevés.

Autres faits marquants de cette étude :
·       Vue d’ensemble sur l’état actuel de l’infrastructure hyper-convergée, avec un nombre de déploiements plus bas que prévu :
o   La majorité des répondants a déclaré qu'elle ne tenait pas compte des systèmes hyper-convergés (33%) ou en tenait bien compte mais ne l'avait pas encore déployé (34%);
o   20% des répondants ont déclaré n’avoir que quelques nœuds ;
o   7% sont en plein déploiement(s), tandis que seulement 6% sont en ont fait une implémentation standard.

·       Bien que la technologie Flash soit largement répandue, seul un petit nombre d’entreprises interrogées lui alloue un espace de stockage conséquent. Environ 60% ont répondu dédier au Flash moins de 10% à 20% de la capacité totale de leur espace de stockage.

·       En analysant les applications compatibles avec une infrastructure Cloud hybride, les principaux types d'applications que les utilisateurs sont prêts à passer sur un Cloud public ou une infrastructure Cloud hybride sont des applications d'entreprise telles que Salesforce pour 33%, l’analyse de données pour 22% et les bases de données pour 21%.

Pour consulter l’étude dans son intégralité, cliquez ici : http://info.datacore.com/sixth-annual-market-survey.


Méthodologie :
L’étude DataCore “Etat des lieux du SDS (Software-Defined Storage), du stockage hyper-convergé et sur Cloud” a été menée de fin 2016 à avril 2017. Le panel de répondants est constitué d’entreprises de diverses tailles et issues de plusieurs secteurs différents, qui ont délivré de précieux enseignements sur la similitude des besoins en SDS au sein de différents environnements informatiques. Les entreprises interrogées sont basées en Amérique du Nord, en Amérique du Sud, en Europe, en Asie, en Afrique, au Moyen-Orient, en Australie et en Nouvelle-Zélande. Elles sont issues de différents segments de marché dont la Finance, la Santé, l’Administration, l’Industrie, l’Education, l’Informatique et de nombreux autres secteurs. 44% des sondés proviennent d’entreprises de moins de 500 salariés, 37% d’entreprises entre 500 et 5000 salariés et 19% d’entreprises de plus de 5000 salariés.

dimanche 21 mai 2017

Prédictions de VMblog DataCore : Le logiciel de traitement en parallèle va révolutionner la productivité et changera la donne en 2017

Virtualisationet prédiction sur le cloud VMblog 2017
Contribution de George Teixeira, Président et PDG de DataCore Software
Malgré tous les progrès technologiques formidables qui se sont produits ces dernières décennies, une grande partie de la puissance informatique reste encore inutilisée en 2017. L'heure est donc venue de généraliser les logiciels de traitement en parallèle et de libérer l'immense puissance de traitement des systèmes multicœurs actuels, afin d’impacter positivement l'économie et la productivité informatiques, et les domaines et marchés où elles peuvent être appliquées.

De nouvelles innovations logicielles feront de 2017 une année déterminante pour le traitement en parallèle. La clé consiste à faciliter l'utilisation du logiciel, sans qu'il nuise aux applications, afin que son utilisation spécifique puisse évoluer vers une application générale. Cette approche entraînera un impact extrêmement fort, car les performances des applications, les charges de travail des entreprises et les densités de consolidation plus élevées sur les plate-formes virtuelles et au sein du cloud computing (qui ont été étouffées par l'écart grandissant entre le calcul de données et les E/S) ne seront dorénavant plus freinées. Cette approche sera concrétisée avec les nouvelles technologies logicielles de traitement parallèle des E/S actuellement disponibles. Elles sont faciles à utiliser, ne nécessitent pas de modifier les applications et sont capables d'exploiter au maximum la puissance des systèmes multicœurs en vue d'augmenter la productivité et de faire face à l'étranglement du traitement des E/S, lequel a constitué un frein pour le secteur. Cette évolution technologique constitue un catalyseur du changement.
Le logiciel de traitement en parallèle peut désormais dépasser le domaine des utilisations spécialisées, telles que l'HPC et les domaines de la génomique, qui se concentrent principalement sur le calcul de données. Il peut ainsi affecter le vaste monde des applications qui nécessitent des réponses et des interactions en temps réel. Cela concerne les applications et le stockage courants, à l'origine des transactions commerciales, du cloud computing, des bases de données, des analyses de données, ainsi que le monde interactif de l'apprentissage machine et de l'Internet des objets (Internet of things, ou IoT).
Le bouleversement affectant l'économie et la productivité constitue le véritable moteur du changement. Aujourd'hui, un grand nombre de nouvelles applications, telles que celles destinées aux analyses, ne sont pas pratiques car elles nécessitent des centaines, voire des milliers de serveurs pour fonctionner. Pourtant, chaque serveur est capable de prendre en charge des centaines de processeurs multithreads, qui sont tous disponibles pour traiter des charges de travail, malgré le fait qu'ils étaient auparavant peu utilisés. Nous amorçons une nouvelle ère dans laquelle un seul serveur pourra effectuer le travail de 10, voire de 100 serveurs. Ce résultat sera obtenu grâce au logiciel de traitement en parallèle qui permet la pleine utilisation des multicœurs et qui révolutionnera la productivité, en créant toute une gamme d'applications abordables qui se généraliseront en 2017.
Un impact conséquent sur les analyses en temps réel et les performances Big Data
Les temps de réponse plus rapides associés à l’effet multiplicateur sur la productivité, via la parallélisation, vont faire progresser les performances des analyses en « temps réel » du big data et des bases de données. DataCore estime que ce sera la prochaine étape à entreprendre en 2017. Notre expérience en matière de traitement parallèle, d’E/S en temps réel et de software-defined storage (stockage défini par logiciel) a permis à notre entreprise d'être particulièrement bien placée pour tirer profit de ce prochain grand défi, à l'heure où le taux et la quantité d'interactions et de transactions sont bien plus élevés, en nécessitant des temps de réponse beaucoup plus rapides.
La capacité d'effectuer plus de travail en le traitant en parallèle, et de réagir rapidement, constitue la clé de la réussite. Chez DataCore, nous estimons qu'elle contribue au changement nécessaire pour rendre les performances des analyses en temps réel et du big data pratiques et abordables. Les conséquences seront considérables sur la productivité et la prise de décisions professionnelles en fonction des tendances issues des données, dans les domaines de la finance, des services bancaires, de la vente au détail, de la détection des fraudes, de la santé et de la génomique. L’impact sur les applications d’apprentissage machine et d’Internet des objets sera également considérable.
L'effet Microsoft est en chemin : Azure Stack, cloud hybride, Windows et SQL Server 2016
La réussite et la croissance d'Azure Cloud de Microsoft sont déjà devenues évidentes. Toutefois, le véritable impact réside dans la stratégie plus vaste de Microsoft, consistant à concilier les systèmes informatiques locaux et le cloud computing. Microsoft a été l'un des premiers fournisseurs de cloud à reconnaître la nécessité d'étendre le cloud public, afin d'arriver à associer les systèmes locaux et ceux basés sur le cloud. Azure Stack de Microsoft continue de progresser afin de parvenir à une solution homogène qui tire parti des avantages du cloud computing, que ce soit dans le cloud ou dans le cloud privé. C'est devenu le modèle des solutions hybrides de cloud computing. De même, Microsoft continue d'intégrer ses solutions Windows et serveur, de manière à collaborer de façon beaucoup plus harmonieuse avec les fonctions du cloud.
Bien que Windows et Azure accaparent l'attention, l'un des changements les plus drastiques que Microsoft ait connu a été la réinvention et la transformation de ses offres de bases de données en une véritable plate-forme de big data et d'analyses, prête à assurer l'avenir. Intéressons-nous désormais au SQL Server 2016. Beaucoup plus puissant et compétent, il peut désormais traiter tout type de données. En tant que plate-forme, il est conçu pour travailler avec le vaste écosystème de partenaires de marché de Microsoft, notamment DataCore et ses innovations en traitement parallèle, afin de redéfinir les possibilités de l'entreprise, du cloud, des performances du big data, des cas d'utilisation des analyses en temps réel pour les applications métiers, ainsi que les nouveaux cas d'utilisation en développement dans les domaines de l'apprentissage machine, de l'informatique cognitive et de l'Internet des objets.
Les systèmes de stockage se sont transformés : il s'agit désormais de serveurs associés à une infrastructure définie par logiciel !
Nous sommes au cœur d'une tendance inévitable et croissante, dans laquelle le stockage est défini par les serveurs. Surfant sur cette tendance, DataCore a utilisé des technologies logicielles d'E/S parallèles pour alimenter les serveurs multicœurs du commerce, de manière à générer les systèmes de stockage les plus rapides au monde et les meilleurs en termes de performances, de latences et de rapport prix-performances. Les systèmes de stockage traditionnels n'arrivent plus à suivre le rythme et sont sur le déclin. Ils sont par conséquent de plus en plus remplacés par des serveurs de base et des solutions d'infrastructure définie par logiciel, capables de tirer profit de leur puissance pour résoudre les problèmes liés au besoin croissant de stockage de données. La fonction de stockage et les services de données associés sont désormais pilotés par des logiciels et deviennent une autre « charge applicative » exploitée sur ces plate-formes économiques. Cette vague de systèmes de stockage flexibles, basés sur les serveurs, entraînent déjà un effet perturbateur sur l'industrie.
Commercialisés en tant que serveurs-SAN, Virtual SAN, ou systèmes à l'échelle du Web, évolutifs et hyper-convergés, ils représentent une gamme de serveurs du commerce standards, de cartes flash et de disques durs. Malgré leurs différences, c'est véritablement le logiciel qui détermine leur valeur respective. Le stockage est désormais axé sur les serveurs. Le logiciel de traitement en parallèle et la capacité à tirer profit de la technologie de serveur multicœurs sont les principaux éléments qui changent la donne. Associés à une infrastructure définie par logiciel, ils permettront de révolutionner la productivité et de renforcer davantage les « serveurs en tant que nouveau moyen de stockage ».
Pour obtenir davantage d'informations, consultez le rapport suivant : http://wikibon.com/server-san-readies-for-enterprise-and-cloud-domination/

Qu'y-a-t-il au-delà du stockage flash ?
Vous souvenez-vous de l'époque où le stockage flash allait devenir la prochaine grande révolution ? Cette période est révolue. Quelle est la prochaine étape ? Comment pouvons-nous accélérer la cadence, tout en utilisant moins de matériel ? La réponse est évidente : l'heure est venue de paralléliser le traitement des E/S, car malgré la présence du stockage flash, les performances et la productivité posent encore problème à de nombreuses applications en entreprise, notamment dans les cas d'utilisation au niveau des bases de données.
Pourquoi ? Cette méthode permet de multiplier les possibilités, en raison du travail en parallèle de nombreux moteurs de calcul, de manière à traiter et à supprimer les goulots d'étranglement et les retards au niveau de la mise en file d'attente, plus haut sur la pile, au plus proche de l'application. De cette manière, nous pouvons éviter le maximum d’E/S au niveau des appareils, tout en générant des performances et des temps de réponse bien supérieurs à n'importe quel degré d'optimisation unique au niveau de l'appareil, que le stockage flash/SSD peut offrir à lui seul. La puissance de plusieurs excède de loin celle d'un seul : l'association du stockage flash et d'un traitement parallèle des E/S permet aux utilisateurs d'assurer davantage d'applications plus rapidement, d'effectuer plus de travail, tout en ouvrant des champs d'application et des cas d'utilisation qui n'étaient pas accessibles auparavant.
Dépasser l'hyper-convergence : l'obtention d'une hyper-productivité constitue le véritable objectif à atteindre
À mesure que 2017 avance, la popularité du logiciel hyper-convergé continue de croître. Toutefois, pour asseoir son succès, les utilisateurs devront être en mesure de profiter pleinement de la productivité promise. La puissance considérable du logiciel de traitement en parallèle permettra aux utilisateurs d'exploiter les possibilités de leur matériel et de leurs logiciels (regardez cette vidéo de ESG, à titre d'exemple).
Les systèmes hyper-convergés actuels sont composés d'un serveur et d'une infrastructure définie par logiciel, même s'ils sont souvent très limités en termes de performances et de cas d'utilisation. De plus, ils présentent rarement la flexibilité nécessaire et ne disposent pas d'un chemin d'intégration au sein d'un environnement informatique plus large (il peut s'agir par exemple de l'absence de prise en charge du protocole fibre channel, qui est généralement essentiel à la connectivité de l'entreprise et de la base de données). Les puissantes technologies de software-defined storage (stockage défini par logiciel) qui assurent un traitement parallèle des E/S fournissent, de façon efficace, un niveau supérieur de flexibilité, tout en exploitant la puissance des serveurs multicœurs, de manière à nécessiter moins de nœuds, et donc à constituer la solution la plus rentable. De même, le logiciel peut incorporer un stockage flash/à disque existant, sans créer de silos supplémentaires. Il peut également migrer et gérer les données sur toute l'infrastructure de stockage, tout en utilisant efficacement les données stockées sur le cloud.
Les infrastructures de données comprenant des systèmes hyper-convergés peuvent toutes bénéficier de ces avancées, grâce aux technologies logicielles de traitement parallèle des E/S. Celles-ci peuvent en effet augmenter considérablement leur productivité en exploitant la puissance qui réside au sein des serveurs multicœurs standards. Bien que le mot « hyper-convergé » soit devenu tendance, n'oublions pas que le réel objectif consiste à obtenir la productivité maximale au coût le plus faible. Par conséquent, une meilleure utilisation du stockage et des serveurs reste la clé pour assurer davantage d'applications.
Le prochain pas de géant à faire : tirer profit de l'effet multiplicateur du traitement en parallèle sur la productivité
Cette association de logiciel et de serveurs puissants permettra une meilleure fonctionnalité, une automatisation accrue et des services complets, de manière à gérer et à stocker efficacement les données sur toute l'infrastructure de données. Cela permettra l'avènement d'une nouvelle ère, où les avantages d'un traitement multicœurs en parallèle pourront être appliqués universellement. Ces progrès (qui ont déjà été accomplis) sont essentiels pour résoudre les problèmes causés par la lenteur du traitement des E/S et les temps de réponse inappropriés, lesquels ont nui aux performances des charges applicatives et aux économies de coûts issues de la consolidation. Les progrès réalisés sur les logiciels multicœurs de traitement en parallèle et les infrastructures définies par logiciel sont collectivement essentiels pour effectuer le prochain pas de géant au niveau de la productivité des entreprises.