mercredi 19 juillet 2017

Pourquoi la parallélisation adaptative est importante

Avec la contribution de Jeffrey Slapp - Directeur de l'ingénierie des systèmes et de l'architecture solution, DataCore Software

Dernièrement, je me suis retrouvé dans plusieurs conversations qui traitaient de la parallélisation et de son importance, notamment pour le traitement des I/O. Dès que nous entendons le terme « Parallel I/O », nous avons tendance à nous interroger tout de suite sur les performances. S'il est certain que les performances liées aux charges de travail des applications sont améliorées dans le sens traditionnel (en termes de diminution de la latence, d'augmentation des opérations par seconde, etc.), l'histoire ne s'arrête pas là. En effet, une autre dimension entre en jeu.
Prenons un exemple de la vie courante qui nous permettra d'expliquer comment cela marche et pourquoi c'est important. Pour une question de simplicité, imaginons que nous nous trouvions aux caisses d'un supermarché et qu'il n'y ait qu'une seule caisse d'ouverte. Soixante clients sont en train de faire la queue, et chacun de ces 60 clients est susceptible d'avoir un nombre différent d'articles à payer, mais pour plus de simplicité, imaginons qu'ils en aient tous à peu près le même nombre. Si cela prend au caissier une minute pour prendre en charge chaque client, son taux de prise en charge est de : 1 client par minute. Jusqu'ici, c'est très simple.
À ce moment-là, le responsable du magasin se rend compte du bouchon que cela provoque et décide d'ouvrir cinq caisses supplémentaires, pour un total de six caisses. Avec six caisses désormais disponibles, six clients peuvent être pris en charge au même moment (c’est-à-dire en parallèle). Le nouveau taux de prise en charge passe à : 6 clients par minute.
Arrêtons-nous un instant. Je pense que personne ne pourra contester le fait que simplement en ouvrant plus de caisses, plus de clients peuvent être pris en charge en même temps. Mais l'autre aspect intéressant de ce système, c'est que l'attente effective totale pour tous les clients a également diminuée. Dans le premier scénario, où une seule caisse était ouverte, le délai total pour prendre en charge 60 clients était de 60 minutes. Dans le deuxième scénario, où six caisses étaient ouvertes, le délai total pour prendre en charge 60 clients était de 10 minutes. Vous voyez où je veux en venir. Imaginons maintenant qu'il y ait 60 caisses opérationnelles. Le nouveau taux de prise en charge effectif pour les 60 clients serait donc d'une minute. En effet, le responsable du magasin a réussi à faire correspondre la demande personnalisée des clients aux capacités des caisses du magasin.
Cet exemple est exactement ce qui se produit dans le monde de la technologie. Les charges de travail des applications sont les clients (générateurs d’I/O) attendant d'être servis, et le caissier et sa caisse sont le service (couche de réponse aux I/O). Le problème avec les systèmes actuels est qu'ils sont largement axés sur l'utilisation d'un seul « caissier » dans le processus de prise en charge.
Le traitement Parallel I/O fournit exactement ce qu'a fourni le responsable du magasin : plus de caissiers pour prendre en charge les clients en parallèle à mesure que la demande de charge de travail augmente.
Pour améliorer encore d'avantage l'expérience du client, imaginons que nous puissions rentrer dans le magasin, prendre nos articles et repartir immédiatement (tout en payant nos courses, évidemment), mais sans avoir à attendre dans la queue. Il faut bien entendu imaginer que le magasin dispose de tout ce dont vous aviez besoin, mais c'est le cas de la plupart des supermarchés. Ce n'est donc pas un problème. Le résultat est que le magasin peut désormais traiter beaucoup plus de clients qu'au départ et la satisfaction générale du client est alors élevée, car il ne doit plus attendre longtemps.
C'est un autre avantage de Parallel I/O, un mécanisme appelé anti-queue (en d'autres termes, ne faites la queue que si vous devez le faire). Adaptive Parallelization n'est pas seulement une innovation habile : c'est devenu un outil absolument indispensable si l'on veut gérer l'offensive très variable des I/O générés par les applications d'aujourd'hui. Mais la dimension supplémentaire des performances dont je parlais ci-dessus est la capacité à exécuter bien plus de fois le nombre d'applications simultanément à de meilleurs niveaux de performances que la seule application faisait autrefois. Si chaque charge de travail a son propre caissier (ou vendeur), vous pouvez exécuter bien plus d'applications (c’est-à-dire des bases de données, des machines virtuelles, etc.) et les exécuter plus rapidement, étant donné qu'il y a moins de demandes pour chaque caissier individuel.

En particulier avec les charges de travail hyperconvergées (HCI), le handicap causé par le traitement des I/O en travailleur unique est précisément ce qui empêche HCI d'atteindre des niveaux bien plus élevés de densité de charge de travail par système. La couche de réponse aux I/O ne peut tout simplement pas répondre à la demande de charge de travail d'applications hautement simultanée. Et pour ne rien arranger, nous vivons désormais à « l'ère des conteneurs ». Dès lors, la simultanéité sera d'autant plus élevée, ce qui aggravera encore plus le bouchon de la couche de réponse aux I/O.

mardi 18 juillet 2017

Des recrutements significatifs pour accompagner la croissance du Groupe


De nombreux recrutements ont été effectués à des postes importants depuis le début de l’année pour renforcer les équipes Europe du Sud et accompagner la croissance
sur ces marchés :



  • Ekrem Koc, nommé Country Manager BENELUX
  • Jose Luis Munoz, nommé Country Manager IBERIA
  • Roberto Zaninello, nommé System Engineer Italie
  • Andrea Giglioli, nommé Sales Manager Italie
  • Audrey Dupont, nommée Sales Manager France région sud
  • Sonia Da Silva, nommée Channel Account Manager EMEA Europe du sud


Egalement, la récente nomination de Rosario Perri en tant que Directeur Stratégie Partenaires et Alliances EMEA va contribuer à l'objectif de développement de la France. 

dimanche 16 juillet 2017

Un succès commercial sur un marché en croissance

Selon une étude DataCore, le SDS (Software-Defined Storage) arrive en première position des investissements prévus pour 2017 : 16% des entreprises sondées ont déclaré que le SDS représentait 11 à 25% de leur budget, et 13% ont répondu qu’il représentait plus de 25% des dépenses allouées au stockage (la part la plus élevée). Leur principale motivation : simplifier la gestion des différents types de stockage (55%).

C’est sur ce marché en forte demande que DataCore évolue, et rencontre un succès croissant depuis près de 16 ans dans la région Europe du Sud. En effet, avec un chiffre d’affaires multiplié par douze

en 10 ans, cette région est devenue la deuxième source mondiale de revenus de l’éditeur. En France, après une année 2015 marquée par une progression du CA de 34% et une année 2016 en progression de 35%, le premier trimestre 2017 continue de marquer une très nette augmentation des volumes de CA et de projets gagnés avec une croissance de 37%.

« Avec un réseau de 116 revendeurs actifs, la France reste la locomotive de la région Europe du Sud » explique Pascal Le Cunff, directeur Europe du Sud DataCore. « Même si nous couvrons la majorité des zones géographiques actives, nous continuons le recrutement dans les régions où le maillage territorial est encore faible afin de servir toutes les structures où qu’elles soient ». 

mercredi 12 juillet 2017

4 conseils à suivre pour sauver la mise grâce au Software-Defined Storage 1ère partie

C'est un fait : l'infrastructure de données reste encore et toujours en mutation. La nécessité de bénéficier de toujours plus de capacité de stockage en raison de la croissance exponentielle des données, des appareils incompatibles et de la gestion des silos de stockage, oblige les entreprises à trouver un moyen de simplifier et de faire la part des choses.
Après avoir parlé à de nombreuses entreprises et à plusieurs professionnels de l'informatique, je suis arrivé à la conclusion qu'il existe quatre difficultés extrêmement communes aux infrastructures de données existantes. La bonne nouvelle, c'est que le Software-Defined Storage (SDS) peut devenir le super-héros que vous attendiez !
Difficulté n°1 : les applications tournent au ralenti, ce qui influence les opérations.
Beaucoup d'entreprises connaissent des difficultés avec les performances des applications. Leurs applications tournent au ralenti et elles ne peuvent atteindre les niveaux de performance dont elles ont besoin. La première chose qui leur vient à l'esprit est de régler ce problème en achetant du stockage flash. Toutefois, elles se rendent compte rapidement que le flash n'est pas une solution universelle.
Les enquêtes publiées affirment que 70 % des entreprises ont de faibles performances avec leurs applications les plus importantes et que nombre d'entre elles connaissent des problèmes d’I/O après la virtualisation du serveur. Cela s'explique en partie par le fait que les performances de la couche de calcul augmentent de 26 % par an, alors que les performances de stockage, elles, n'augmentent que d'environ 2 % par an. L'écart grandit de plus en plus.
Conseil : améliorez la performance de vos applications
Débarrassez-vous des goulots d'étranglement liés aux I/O. Notre solution SDS comprend une technologie Parallel I/O et des algorithmes de mise en cache à haute vitesse qui accélèrent les I/O et qui stimulent les performances des applications en tirant profit de la mémoire électronique et des processeurs multi-cœurs déjà disponibles dans vos serveurs. Ainsi, les demandes I/O en parallèle sont traitées de manière beaucoup plus rapide.
« L'augmentation la plus significative des performances a eu lieu avec notre base de données SQL et notre plateforme AIX. Les opérations et les rapports qui autrefois prenaient des heures ne prennent plus que quelques minutes maintenant que nous avons implémenté la solution de DataCore. » —explique Mark Naidoo, architecte informatique chez Transdev Australasia.
Difficulté n°2 : les interruptions sont pénalisantes et coûtent cher
Les entreprises souffrent d’interruptions imprévues, ce qui constitue un souci majeur. Près d'une entreprise sur cinq a connu des défaillances de stockage ayant provoqué des interruptions, des pannes dues à une erreur humaine ou des problèmes d'infrastructure, et le plus inquiétant, c'est qu'elles peuvent avoir lieu à n'importe quel moment. IDC affirme que 80 % des petites entreprises ont déjà subi une interruption par le passé, ce qui a entraîné des coûts pouvant aller de 82 200 $ à 256 000 $ pour un seul événement. Cela revient à 427 $ par minute. Cela pourrait coûter des millions à une grande entreprise. C'est la raison pour laquelle un plan de continuité d'activité et de reprise d'activité est incontournable.
Conseil : améliorez la disponibilité de vos applications et de vos données
Pour parer les interruptions liées au stockage, notre solution assure des capacités de basculement et de reprise sans aucune intervention pour éviter les interruptions dans l'accès des données et les opérations de l'entreprise. Ce processus est entièrement automatisé : aucun script ni aucune intervention manuelle ne sont nécessaires. Cela vous permet de faire des mises à jour, des migrations ou tout autre type de maintenance en direct pendant les heures de travail, et non plus pendant les week-ends. Et si cela se produit le jour où une interruption imprévue a lieu, notre solution peut vous aider à assurer la continuité de vos activités dont vous avez besoin pour vos applications stratégiques.
« Notre plus gros avantage a été de pouvoir mettre à jour des sections de notre SAN sans devoir interrompre notre service. Dans une banque, les interruptions sont cruciales. Nous avons pu ajouter, corriger et mettre à jour notre stockage, tout en restant en ligne et en production totale. » déclare le Directeur des systèmes d'information de Medium Enterprise Banking Company.


lundi 10 juillet 2017

Une infrastructure hyper-convergée est-elle adaptée à votre datacenter ?

Écrit par Pascal Le Cunff, Directeur EMEA DataCore Software 

En tant que responsable ou professionnel de l'informatique, vous avez sans doute beaucoup entendu parler de l'hyper-convergence depuis ces 12 derniers mois. Vous l'avez peut-être déjà mise en œuvre ou êtes en train d'évaluer les choix qui s'offrent à vous. 

Toutefois, une infrastructure hyper-convergée est-elle adaptée à vos besoins ? 

Les points faibles que vous constatez sur le terrain sont liés aux éléments suivants : 

  • Les coûts élevés associés à l'infrastructure : les budgets sont serrés, la croissance des données est exponentielle et une pression s'exerce pour améliorer constamment les services, année après année. Il faut faire plus, avec moins. 
  • Dégradation des performances : les applications doivent fonctionner rapidement. Si elles n'y parviennent pas, les utilisateurs se plaignent et les activités tournent au ralenti. 
  • Continuité opérationnelle et capacité de reprise après sinistre insuffisantes : aucune défaillance n'est tolérée pour les applications et les données doivent être accessibles en permanence, sous peine de perturber les opérations. 
  • Complexité des opérations informatiques : une infrastructure trop complexe entraîne des problèmes de performances, une interruption des applications et une charge de gestion considérable. 
  • Accablement du personnel : le personnel informatique est limité et ne bénéficie pas de l'expérience technique requise pour traiter les demandes croissantes envers l'organisation informatique. 


Une infrastructure hyper-convergée présente de nombreux avantages, tels que la réduction des coûts d'investissement, l'optimisation de l'agilité et la diminution des tâches de gestion. En outre, il existe de nombreux cas d'utilisation, comme la consolidation d'un centre de données, le déploiement de nouvelles applications de niveau 1, le déploiement VDI, la gestion de sites à distance, et même la mise en œuvre d'un plan de reprise après sinistre. 


En revanche, tous les environnements de centre de données sont différents et les solutions proposées par les fournisseurs sont nombreuses, ce qui ajoute à la confusion créée par le « jargon marketing ». Si vous faites partie de ceux qui connaissent bien leur environnement, soyez vigilant et assurez-vous que la solution envisagée réponde à toutes vos exigences.

jeudi 6 juillet 2017

L’appliance Lenovo : plus qu'un produit, une stratégie pour résoudre le problème du stockage hétérogène !


LE PROBLÈME DU STOCKAGE HÉTÉROGÈNE
Le stockage hétérogène est une réalité quotidienne de la plupart des entreprises : ainsi, près de deux tiers des entreprises affirment posséder des appareils de stockage appartenant de trois à neuf fournisseurs différents. Cependant, les problèmes liés à ce type de diversité sont multiples.
Premièrement, ces appareils sont incompatibles, ce qui créé des silos de capacité qui ne peuvent être partagés. De plus, ils ont différents niveaux de performance, de disponibilité et de services, ce qui rend la tâche difficile lorsqu’il s’agit de répondre en permanence aux besoins des applications stratégiques.  Enfin, avec toutes ces différences, cet environnement mixte et hétérogène met plus de temps à gérer, génère plus de coûts et rend les choses plus difficiles pour répondre aux besoins des entreprises.
LA SOLUTION : UNE STRATÉGIE DE STOCKAGE PAR SOFTWARE-DEFINED STORAGE GRÂCE A l’APPLIANCE LENOVO DX8200D
Contrairement aux produits des autres entreprises qui tentent de résoudre ce problème en jetant et en remplaçant l'infrastructure de stockage existante uniquement avec leur appareil, la solution de stockage Lenovo DX8200D de DataCore adopte une approche différente. Avec sa plateforme de stockage définie par logiciel, il est capable de consolider et d'unifier n'importe quel stockage existant dans le centre de données, en créant un pool de capacité et de stockage et en éliminant les silos. Il offre le niveau le plus élevé de performance et de disponibilité, avec un ensemble de services de stockage cohérent, garantissant les performances, la disponibilité et l'efficacité dont ont besoin toutes vos applications, depuis les plus stratégiques jusqu'aux fichiers et aux imprimantes. De plus, le DX8200D dispose d'une seule console pour tous les stockages, ce qui permet de gérer facilement n'importe quel appareil. Le DX8200D est un dispositif clé en mains, ce qui signifie qu'il a été conçu pour être facile à configurer et à déployer dans le datacenter.
LES AVANTAGES : PERFORMANCES, DISPONIBILITÉ, COÛT, EFFICACITÉ ET FLEXIBILITÉ

Le DX8200D utilise efficacement tous les actifs de stockage existants, ce qui réduit le coût de possession et supprime la dépendance propriétaire du stockage. En libérant la capacité des silos, il est plus facile de répondre aux besoins grandissants en matière de données dans votre entreprise.  Les applications répondent plus vite, ce qui améliore la productivité employé / entreprise et augmente le revenu, tout en évitant les interruptions et les frais inutiles. Le DX8200D réduit également à la fois les coûts d'exploitation en simplifiant l'administration (en redonnant au personnel le temps de se concentrer sur de nouveaux projets et de nouvelles innovations) et les coûts de capital (en permettant aux entreprises de retarder le renouvellement du matériel). 
Enfin, le DX8200D permet au département informatique de prendre les commandes, en supprimant l'enfermement propriétaire du stockage, et vous permet de déployer de nouvelles technologies de stockage pour répondre aux besoins de votre entreprise.