Virtualisationet prédiction sur le cloud VMblog 2017
Contribution de George Teixeira, Président et PDG de DataCore Software
Contribution de George Teixeira, Président et PDG de DataCore Software
Malgré tous les progrès
technologiques formidables qui se sont produits ces dernières décennies, une
grande partie de la puissance informatique reste encore inutilisée en 2017. L'heure est donc venue de généraliser les logiciels de
traitement en parallèle et de libérer l'immense puissance de traitement des
systèmes multicœurs actuels, afin d’impacter positivement l'économie et la productivité informatiques, et les domaines et marchés où elles peuvent être appliquées.
De nouvelles innovations logicielles feront de 2017 une année
déterminante pour le traitement en parallèle. La clé consiste à faciliter
l'utilisation du logiciel, sans qu'il nuise aux applications, afin que son
utilisation spécifique puisse évoluer vers une application générale. Cette
approche entraînera un impact extrêmement fort, car les performances des
applications, les charges de travail des entreprises et les densités de
consolidation plus élevées sur les plate-formes virtuelles et au sein du cloud computing
(qui ont été étouffées par l'écart grandissant entre le calcul de données et
les E/S) ne seront dorénavant plus freinées. Cette approche sera concrétisée
avec les nouvelles technologies logicielles de traitement parallèle des E/S
actuellement disponibles. Elles sont faciles à utiliser, ne nécessitent pas de
modifier les applications et sont capables d'exploiter au maximum la puissance
des systèmes multicœurs en vue d'augmenter la productivité et de faire face à
l'étranglement du traitement des E/S, lequel a constitué un frein pour le
secteur. Cette évolution technologique constitue un catalyseur du changement.
Le logiciel de traitement en parallèle peut désormais dépasser le
domaine des utilisations spécialisées, telles que l'HPC et les domaines de la
génomique, qui se concentrent principalement sur le calcul de données. Il peut
ainsi affecter le vaste monde des applications qui nécessitent des réponses et
des interactions en temps réel. Cela concerne les applications et le stockage
courants, à l'origine des transactions commerciales, du cloud computing, des
bases de données, des analyses de données, ainsi que le monde interactif de
l'apprentissage machine et de l'Internet des objets (Internet of things, ou IoT).
Le bouleversement affectant l'économie et la productivité
constitue le véritable moteur du changement. Aujourd'hui, un grand nombre de
nouvelles applications, telles que celles destinées aux analyses, ne sont pas
pratiques car elles nécessitent des centaines, voire des milliers de serveurs
pour fonctionner. Pourtant, chaque serveur est capable de prendre en charge des
centaines de processeurs multithreads, qui sont tous disponibles pour traiter
des charges de travail, malgré le fait qu'ils étaient auparavant peu utilisés.
Nous amorçons une nouvelle ère dans laquelle un seul serveur pourra effectuer
le travail de 10, voire de 100 serveurs. Ce résultat sera obtenu grâce au
logiciel de traitement en parallèle qui permet la pleine utilisation des
multicœurs et qui révolutionnera la productivité, en créant toute une gamme
d'applications abordables qui se généraliseront en 2017.
Un impact conséquent sur les analyses en temps réel et les performances Big Data
Les temps de réponse plus rapides associés à l’effet
multiplicateur sur la productivité, via la parallélisation, vont faire
progresser les performances des analyses en « temps réel » du big
data et des bases de données. DataCore estime que ce sera la prochaine étape à
entreprendre en 2017. Notre expérience en matière de traitement parallèle, d’E/S
en temps réel et de software-defined storage (stockage défini par logiciel) a
permis à notre entreprise d'être particulièrement bien placée pour tirer profit
de ce prochain grand défi, à l'heure où le taux et la quantité d'interactions
et de transactions sont
bien plus élevés, en nécessitant des temps de réponse beaucoup plus
rapides.
La capacité d'effectuer plus de travail en le traitant en
parallèle, et de réagir rapidement, constitue la clé de la réussite. Chez DataCore, nous estimons
qu'elle contribue au changement nécessaire pour rendre les performances des
analyses en temps réel et du big data pratiques et abordables. Les conséquences
seront considérables sur la productivité et la prise de décisions professionnelles
en fonction des tendances issues des données, dans les domaines de la finance,
des services bancaires, de la vente au détail, de la détection des fraudes, de
la santé et de la génomique. L’impact sur les applications d’apprentissage
machine et d’Internet des objets sera également considérable.
L'effet
Microsoft est en chemin : Azure Stack, cloud hybride, Windows et SQL
Server 2016
La réussite et la croissance d'Azure Cloud de Microsoft sont déjà
devenues évidentes. Toutefois, le véritable impact réside dans la stratégie
plus vaste de Microsoft, consistant à concilier les systèmes informatiques
locaux et le cloud computing. Microsoft a été l'un des premiers fournisseurs de
cloud à reconnaître la nécessité d'étendre le cloud public, afin d'arriver à
associer les systèmes locaux et ceux basés sur le cloud. Azure Stack de
Microsoft continue de progresser afin de parvenir à une solution homogène qui
tire parti des avantages du cloud computing, que ce soit dans le cloud ou dans
le cloud privé. C'est devenu le modèle des solutions hybrides de cloud
computing. De même, Microsoft continue d'intégrer ses solutions Windows et
serveur, de manière à collaborer de façon beaucoup plus harmonieuse avec les
fonctions du cloud.
Bien que Windows et Azure accaparent l'attention, l'un des
changements les plus drastiques que Microsoft ait connu a été la réinvention et
la transformation de ses offres de bases de données en une véritable
plate-forme de big data et d'analyses, prête à assurer l'avenir.
Intéressons-nous désormais au SQL Server 2016. Beaucoup plus puissant et
compétent, il peut désormais traiter tout type de données. En tant que
plate-forme, il est conçu pour travailler avec le vaste écosystème de
partenaires de marché de Microsoft, notamment DataCore et ses innovations en
traitement parallèle, afin de redéfinir les possibilités de l'entreprise, du
cloud, des performances du big data, des cas d'utilisation des analyses en
temps réel pour les applications métiers, ainsi que les nouveaux cas
d'utilisation en développement dans les domaines de l'apprentissage machine, de
l'informatique cognitive et de l'Internet des objets.
Les
systèmes de stockage se sont transformés : il s'agit désormais de serveurs
associés à une infrastructure définie par logiciel !
Nous sommes au cœur d'une tendance inévitable et croissante, dans
laquelle le stockage est défini par les serveurs. Surfant sur cette tendance,
DataCore a utilisé des technologies logicielles d'E/S parallèles pour alimenter
les serveurs multicœurs du commerce, de manière à générer les systèmes de
stockage les plus rapides au monde et les meilleurs en termes de performances,
de latences et de rapport prix-performances. Les systèmes de stockage
traditionnels n'arrivent plus à suivre le rythme et sont sur le déclin. Ils
sont par conséquent de plus en plus remplacés par des serveurs de base et des
solutions d'infrastructure définie par logiciel, capables de tirer profit de
leur puissance pour résoudre les problèmes liés au besoin croissant de stockage
de données. La fonction de stockage et les services de données associés sont
désormais pilotés par des logiciels et deviennent une autre « charge
applicative » exploitée sur ces plate-formes économiques. Cette vague de
systèmes de stockage flexibles, basés sur les serveurs, entraînent déjà un
effet perturbateur sur l'industrie.
Commercialisés
en tant que serveurs-SAN, Virtual SAN, ou systèmes à l'échelle du Web, évolutifs
et hyper-convergés, ils représentent une gamme de serveurs du commerce
standards, de cartes flash et de disques durs. Malgré leurs différences, c'est
véritablement le logiciel qui détermine leur valeur respective. Le stockage est
désormais axé sur les serveurs. Le logiciel de traitement en parallèle et la
capacité à tirer profit de la technologie de serveur multicœurs sont les
principaux éléments qui changent la donne. Associés à une infrastructure définie
par logiciel, ils permettront
de révolutionner la productivité et de renforcer davantage les « serveurs
en tant que nouveau moyen de stockage ».
Pour
obtenir davantage d'informations, consultez le rapport suivant : http://wikibon.com/server-san-readies-for-enterprise-and-cloud-domination/
Qu'y-a-t-il au-delà du stockage flash ?
Vous souvenez-vous de l'époque où le stockage flash allait devenir
la prochaine grande révolution ? Cette période est révolue. Quelle est la
prochaine étape ? Comment pouvons-nous accélérer la cadence, tout en
utilisant moins de matériel ? La réponse est évidente : l'heure est
venue de paralléliser le traitement des E/S, car malgré la présence du stockage
flash, les performances et la productivité posent encore problème à de
nombreuses applications en entreprise, notamment dans les cas d'utilisation au
niveau des bases de données.
Pourquoi ? Cette méthode permet de multiplier les
possibilités, en raison du travail en parallèle de nombreux moteurs de calcul,
de manière à traiter et à supprimer les goulots d'étranglement et les retards
au niveau de la mise en file d'attente, plus haut sur la pile, au plus proche
de l'application. De cette manière, nous pouvons éviter le maximum d’E/S au
niveau des appareils, tout en générant des performances et des temps de réponse
bien supérieurs à n'importe quel degré d'optimisation unique au niveau de
l'appareil, que le stockage flash/SSD peut offrir à lui seul. La puissance de
plusieurs excède de loin celle d'un seul : l'association du stockage flash
et d'un traitement parallèle des E/S permet aux utilisateurs d'assurer
davantage d'applications plus rapidement, d'effectuer plus de travail, tout en
ouvrant des champs d'application et des cas d'utilisation qui n'étaient pas
accessibles auparavant.
Dépasser l'hyper-convergence : l'obtention d'une
hyper-productivité constitue le véritable objectif à atteindre
À mesure que 2017 avance, la popularité du logiciel hyper-convergé
continue de croître. Toutefois, pour asseoir son succès, les utilisateurs
devront être en mesure de profiter pleinement de la productivité promise. La
puissance considérable du logiciel de traitement en parallèle permettra aux
utilisateurs d'exploiter les possibilités de leur matériel et de leurs
logiciels (regardez cette vidéo de ESG, à titre d'exemple).
Les systèmes hyper-convergés actuels sont composés d'un serveur et
d'une infrastructure définie par logiciel, même s'ils sont souvent très limités
en termes de performances et de cas d'utilisation. De plus, ils présentent
rarement la flexibilité nécessaire et ne disposent pas d'un chemin
d'intégration au sein d'un environnement informatique plus large (il peut
s'agir par exemple de l'absence de prise en charge du protocole fibre channel,
qui est généralement essentiel à la connectivité de l'entreprise et de la base
de données). Les puissantes technologies de software-defined storage (stockage
défini par logiciel) qui assurent un traitement parallèle des E/S fournissent,
de façon efficace, un niveau supérieur de flexibilité, tout en exploitant la
puissance des serveurs multicœurs, de manière à nécessiter moins de nœuds, et
donc à constituer la solution la plus rentable. De même, le logiciel peut
incorporer un stockage flash/à disque existant, sans créer de silos
supplémentaires. Il peut également migrer et gérer les données sur toute
l'infrastructure de stockage, tout en utilisant efficacement les données
stockées sur le cloud.
Les infrastructures de données comprenant des systèmes
hyper-convergés peuvent toutes bénéficier de ces avancées, grâce aux
technologies logicielles de traitement parallèle des E/S. Celles-ci peuvent en
effet augmenter considérablement leur productivité en exploitant la puissance
qui réside au sein des serveurs multicœurs standards. Bien que le mot
« hyper-convergé » soit devenu tendance, n'oublions pas que le réel
objectif consiste à obtenir la productivité maximale au coût le plus faible.
Par conséquent, une meilleure utilisation du stockage et des serveurs reste la
clé pour assurer davantage d'applications.
Le
prochain pas de géant à faire : tirer profit de l'effet multiplicateur du
traitement en parallèle sur la productivité
Cette association de logiciel et de serveurs puissants permettra
une meilleure fonctionnalité, une automatisation accrue et des services
complets, de manière à gérer et à stocker efficacement les données sur toute
l'infrastructure de données. Cela permettra l'avènement d'une nouvelle ère, où
les avantages d'un traitement multicœurs en parallèle pourront être appliqués
universellement. Ces progrès (qui ont déjà été accomplis) sont essentiels pour
résoudre les problèmes causés par la lenteur du traitement des E/S et les temps
de réponse inappropriés, lesquels ont nui aux performances des charges
applicatives et aux économies de coûts issues de la consolidation. Les progrès
réalisés sur les logiciels multicœurs de traitement en parallèle et les
infrastructures définies par logiciel sont collectivement essentiels pour
effectuer le prochain pas de géant au niveau de la productivité des
entreprises.
Aucun commentaire:
Enregistrer un commentaire