HYPERCONVERGENCE : La révolution du SDDC

Afin de fêter la nouvelle année, je relance mon blog avec une série d’articles sur l’hyperconvergence. Ce premier article, en forme d’introduction, me permettra de centraliser les différents sujets qui tourneront autour de la convergence de l’hyperviseur.
Avant d’aborder de manière poussée les différents concepts / produits qui sous-tendent ce sujet, il m’apparait nécessaire de bien définir ce que j’entends par hyperconvergence

  • Qu’est-ce que l’hyper convergence ?

L’hyperconvergence, n’est pas une hyper-convergence, une GIGA CONVERGENCE qu’il faudrait voir comme un élément ultime. C’est vraiment dans le sens  convergence dans l’hyperviseur qu’il faut le comprendre. L’apparition de l’hyperviseur et son explosion au milieu des années 2000 a imposé de plus en plus de stress au matériel. En effet les concepts qui sous-tendaient l’architecture IT était alors plutôt dédié à du client-server x86 voir à des gros systèmes. Le stockage en particulier par son aspect centralisé et monolithique a longtemps empêché de prévoir un scaleout simple.

Un boitier hyperconvergé, HCI en anglais, est donc un boitier concentrant le compute, le stockage et les liens réseau permettant de se relier au réseau global entreprise. Le noeud d’hyperviseur, voir plusieurs noeuds dans un boitier 2U devient l’élément atomique, la commodities, la cellule dans mon modèle de datacenter organique.

  • Prenons un exemple :
Il est normal qu’un service de développement logiciel ait besoin pour un projet donnée de mettre en place une infrastructure rapidement afin de commencer à développer ASAP pour répondre à la demande client . Attendre 8 mois pour obtenir une VM car le budget de l’IT a été consommé et qu’il faut racheter une baie de stockage n’est pas envisageable. Que reste-il comme option ? rajouter une VM ? rajouter xVM ? admettons que le projet prenne de l’importance,  il faut déployer un environnement de production, de préproduction, de formation, une vitrine.  et c’est la lente agonie de l’infrastructure que l’équipe de développement va subir. Cela vient-il de la conception ? de l’infrastructure répartie ? où est le bottleneck ? c’est extrêmement interessant pour l’expert technique de rechercher la cause dans le sens où il va devoir investiguer toute la chaine aller dans le coeur du système, du stockage… mais pour le client final ? et pour le business ? dans tous les cas après l’analyse comment corriger ? qui paye la nouvelle infrastructure ?

  • L’hyperconvergence ça vient d’où ? 
 Les premières tentatives de convergences ont eut pour initateurs CISCO au milieu de sannées 2000. Grâce à des partenariats / joint-ventures avec les 2 leaders du stockage que sont NETAPP et EMC². avec respectivement le FlexPOD et le vBlock, les premières architectures convergentes sont nées. Les idées derrières ces architectures convergées sont louables :

  • fournir un matériel testé et dimensionné pour le workload demandé,
  • lier le compute, le stockage et le network dans un stack (en général une baie complète),
  • proposer un support unique. Au moins au niveau du point d’entrée,
  • proposer une architecture éprouvée et validée par un éditeur.
Suite à cela, l’approche dite en bundle a fait beaucoup de bruit fin des années 2000
Seulement cela ne répond pas au besoin. Cela permettait de prévoir plus simplement une charge mais cela ne permettait pas de prendre en compte  l’évolution de cette charge. Le coût d’un tel package avec une brique de base de l’ordre de la baie complète est tout sauf anodin ! sans parler de la complexité qui n’était pas si simplement gérée que cela.

  • Pourquoi l’hyperconvergence ?
Comme on l’a vu, la virtualisation et l’accélération du delivery qu’elle a imposée aux équipes IT est un élément de réponse. Cependant cela n’explique pas tout selon  moi. Une explication qui me semble très pertinente selon moi vient de S.Poitras (ou du moins c’est sur son blog que j’en a pris conscience pour la première fois).
La latence.

nutanixBible_IO_latency
Figure 1 : les différentes latences temps de traitement induits par des IO. (Nutanixbible.com)

Quand on regarde ce comparatif sur les différents temps moyens pris par les contrôleurs / HDD / SSD pour réaliser une action type que voit-on ?
Jusqu’à l’avènement de la consommation de masse du disque SSD, la latence disque était due pour une bonne part aux disques eux mêmes. Lorsque l’on réalisait le design d’une architecture, il fallait soigner particulièrement le nombre d’axes, les types de raid, le cache des contrôleurs, les QueueDepth des différents composants… bref le stockage était un bottleneck critique, dont le point central était le disque. D’autant plus qu’il représentait un gros investissement et un scaleout proche de zéro.
Le SSD a finalement mis la pression sur les contrôleurs des baies ainsi les contrôleurs réseaux/fabric FC qui deviennent les points de contention, le débit et la latence ayant été grandement augmentée.
L’hyperconvergence est donc apparue pour répondre à un besoin de simplification, de scaleout ET de performance (le stockage au plus proche du compute).

  • Au final quels sont les bénéfice de l’hyperconvergence pour une IT ?
Si l’on reprend les différents points évoqués, c’est une véritable simplification de l’architecture doublée d’un scaleout prévisible et avec des paliers faible.

Pour reprendre l’exemple précédent : Si le manager de l’IT peut prédire avec l’équipe projet métier les besoins en terme d’infrastructure pour son projet et d’évaluer rapidement ce que cela va impliquer. S’il peut même commander le matériel en avance de phase (1, 2, 10 blocs), l’installer en quelques jours / semaines. Et au final si le projet peut monter en puissance sans impacter l’infrastructure et que l’infrastructure peut évoluer sans impacter les machines. N’est-ce pas le rêve pour le métier, le client et l’IT ?

En conclusion :

Dans ce billet j’ai pû introduire le sujet de l’hyperconvergence en douceur. Par la suite on va descendre petit à petit et plonger au coeur de la technique. Il ne me semble pas approprié de confronter les technologies sur leur performances pures. D’abord, les services marketing de ces sociétés font cela bien mieux que moi. Ensuite, il me semble plus pertinent regarder les différentes approches techniques, leur roadmap, la vision que j’en ai et leur intégration aux IT que je côtoie au quotidien depuis maintenant plus de 15 ans. Cette série d’article sera donc focalisée sur ces points :

  • les potentialités,
  • ce qu’il y a en dessous,
  • Comment cela s’intègre aux autres éléments de l’ecosystème
  • Comment cela s’intègre à une IT

 

Stay Tuned !

 

@virttom

Mon Datacenter est-il vivant ? deuxième partie

MDCV2-1
Fig1 :I’m alive !
En lisant le freebook de VMware « Virtualization 2.0 for Dummies » (excellent au passage, du moins si vous ne cherchez pas de Deep Dive techniques, le format est trop court pour cela) je me suis apperçu que le sujet était on ne peut plus d’actualité. Dès l’introduction les auteurs renvoient à l’image du Dr Frankenstein, « it’s aliiiive ». Nous allons voir qu’il nous reste encore de la marge avant d’arriver à cela cependant la vision est là. Puisque nous en sommes aux images d’ordinateurs (franchement je préfère de loin computer mais bon restons en au français), rien ne saurait remplacer les auteurs de sciences fiction. Ces visionnaires, souvent d’un haut niveau scientifiques nous ouvrent la voie. Qui ne connait pas les 3 principes de la robotique de Asimov ? Skynet ? et bien sûr la matrice… Toutes ces images sont plaisantes et à l’ère de l’imprimante 3D, de la réalité augmentée dans la poche, du Webscale et du cloud elles résonnent de plus en plus avec notre réalité. Il devient alors nécessaire, pour ne pas dire urgent de nous organiser, d’organiser nos datacenter avant d’avoir à affronter un colosse anarchique, un ogre énergivore.
Avant de partir plus avant sur l’énergie sans laquelle aucune vie n’est possible laissez-moi revenir sur une notion d’importance lorsque l’on parle de vie et d’oganisme. La cellule.
 MDCV2-2
Fig2 : Cellules et glandes du métabolisme phosphocalcique
Si l’on met de côté le virus qui selon les critères actuels n’est pas considéré comme un organisme vivant à proprement parler, le constitutant de base d’un organisme est la cellule (théorie de Scheiden et Schwann jamais remise en question). Certains, en fait la plupart des organismes vivants se contentent d’une cellule. C’est une unité autosuffisante et fascinante, dans l’histoire de la vie, on pourrait dire qu’elle constitue le premier bit : avant elle des êtres archaïques, un bouillon de culture, même si elle est organique, la science qui les étudie reste de la chimie. Avec elle, la vie. Après elle ? la science fiction.
La biochimie, science qui étudie la chimie du vivant, commence avec les archéobactéries. Ces bactéries archaïques ont permis  de créer les conditions nécessaire au développement des autres être vivants (du moins en l’état actuel des connaissance). Certaines traces se retrouvent encore dans les cellules, dans nos cellules, les mitochondries, l’usine à carburant. Le matériel génétique (nous aurons l’occasion d’y revenir lors de la partie dédiée au stockage) de ces bactéries, de ces traces intégrées à nos cellules complexes, n’a pratiquement pas varié en des milliard d’années. C’est proprement fascinant et cela indique clairement à quel point ces fonctions sont vitales.
De quoi est constituée notre cellule ?
Nous nous concentrons ici sur les familles complexes appelée Eucaryotes par opposition aux procaryotes (bactéries, archeobactéries).
298969381_small
Fig3 : Les différences entre Procaryotes et Eucayotes
De quoi est constituée cette cellule Eucaryote ?
  • Elle est isolé du monde extérieur, par une double-paroi faite de lipides (la manière la plus simple et la plus fluide de séparer 2 liquides c’est la double paroi lipidique). Comme une bulle de savon mais plus complexe car séparant 2 milieu liquides. Cette paroi est aussi appelée enveloppe.
  • D’un matériel génétique regroupé dans un noyau,
  • d’unité permettant de convertir l’énergie, les mitochondries,
  • et d’un liquide composé en grande partie d’eau et d’une quantité incalculable de molécules plus ou moins complexes.

Ceci permet à la cellule, d’assurer sa fonction (dans le cas d’un être pluricellulaire sinon c’est toutes les fonctions !) comme de secréter de la bile pour une cellule du foie. Ceci permet également le maintient de son homéostasie (son équilibre) et enfin sa pérennisation (duplication / réplication du matériel génétique).

Je vous invites maintenant à lire un peu sur ce sujet car je dois m’arrêter là afin de recentrer sur ce qui nous intéresse, le DATACENTER !
Le constituant unitaire de notre datacenter, quel est-il dans ces conditions ? pour moi, il est évident que c’est l’ordinateur. Un terme un brin désuet, mais suffisamment générique pour englober plusieurs fonctions spécialisées du datacenter. L’ordinateur est présent bien évidemment sous la forme de server, c’est le constituant le plus connu. Il est aussi présent dans un contrôleur de baie de stockage, dans un switch IP, et dans bien d’autres matériels présents   dans notre « macro-organisme », notre SDDC.
Jusqu’à il y a une quinzaine d’années, la vaste majorité des ordinateurs étaient constitués d’une enveloppe physique. Ce n’est plus le cas. L’avènement de la virtualisation nous permet d’entrer dans un modèle encore plus proche de ce que représente l’unité d’organisation de type cellule. Cela fait bien longtemps que je considère un serveur comme une enveloppe, un bios et un OS ! pour les contrôleurs réseau / stockage c’est une autre histoire. Mais cela viendra ! en fait c’est déjà là…
Mais alors qu’est-ce qu’un serveur hôte ? un terme inadapté si vous voulez mon avis. Je préfère de loin le terme hyperviseur car il s’inscrit dans mon modèle et rempli un espace bien connu lorsque l’on décrit un être pluricellulaire : l’organe.
Prenons un corps humain. Certes il est constitué de cellules, mais ces cellules sont organisées en niveau de spécialisation ! nous ne sommes pas un mycelium (organisation pluricellulaire d’être unicellulaires bien connues des biologiste s’intéressant à la biologie du sol : là encore wikipedia est votre ami).
Nous sommes bien plus complexes et nos cellules sont hyper spécialisées, organisées en unité assurant une fonction bien définies. La liste est longue, trop longue mais pensez à la différence entre un neurone, une cellule musculaire, une cellule de la peau ou des poumons, une cellule des intestins ou du système sanguin, une ovule (bien que là, ce ne soit pas tout à fait une cellule…). Lorsque cela est nécessaire (en ce qui nous concerne c’est toujours le cas), une organisation intermédiaire regroupant ces cellules spécialisées voit le jour : un faisceaux musculaire, un nerf (faisceau de neurones), une veine. On parle souvent de tissus.
 Au niveau encore supérieur on parle d’un organe. Constitué de plusieurs types de tissus et relié à d’autres organes, d’autres tissus, il permet de remplir des fonctions de manière très efficaces. On assiste à une consolidation de fonctions dans un but commun : absorption d’oxygène, motilité, absorption des nutriments, transport du sang, sudation… Il est souvent organisé en unités de production secteurs, segments…) bref en cluster !  le dernier niveau s’appelle le système (système vasculaire, endocrinien, digestif…). On voit tout de suite que ces différents niveau d’abstraction font sens également dans notre SDDC : le système de stockage, le système de sauvegarde, le réseau tout est système ! Voila pourquoi cela ne me dérange pas de porter la casquette d’expert système, même si je ne suis pas sur de mettre la même signification que mes compères ou mes patrons sur le sujet 😉
Dans le cas de notre SDDC, nous avons donc pour la partie server : une VM (la cellule), un hyperviseur (le tissus spécialisé), un cluster (un organe), un vcenter (production, developpement…). Selon la taille du SDDC toutefois, les niveaux d’organisation diffèrent, on peut avoir un cluster, voir un resource pool de production par exemple. Ceci n’est pas en soit un problème car comme tout modèle scientifique, il est limité, perfectible et pour ainsi dire… vivant ! ce n’est surement pas un dogme et je compte sur la communauté pour me faire évoluer encore sur le sujet.
Pour la partie SDS, et donc le stockage, là encore nous pouvons imaginer plusieurs niveaux d’organisation au delà du miroir : les stacking de controleurs, de switches… nous reviendrons allegrement sur la partie stockage qui représente pour moi un volet à part entière, tellement de choses bougent dans ce milieu !
Même réflexion sur le réseau, bien que là, cela ne soit clairement pas ma partie, aussi il va falloir me laisser plus de temps pour « piocher » dans cette mine…. le SDN est en train d’exploser à grande vitesse on va y revenir vite !
Malgré tout, si on reste à un haut niveau de compréhension (rien à voir avec l’expertise ni le terrain donc…) on voit une corrélation, une convergence sur ce que doit être, ce que doit devenir le datacenter de demain voir d’après demain si l’on considère qu’un modèle plus biologiquement intégré doit voir le jour.
On peut aussi inclure les constitutants qui ne sont pas des cellules, pas des ordinateurs dans ce modèle : un baie schroff, un les câbles divers et variés, les sondes, les batteries sont des éléments de notre SDDC. Au même titre qu’un os, un ongle, un ligament ou un cheveux ! nous sommes constitués de cellules… mais pas seulement !
La datacenter comme un être pluricellulaire est donc constitué de briques unitaires assemblées par spécialités selon plusieurs niveaux d’organisation, afin de rester efficace en grandissant. (je préfère ce terme au terme grossir) La répartition au sein du datacenter répond également à des nécessités d’efficacité de transmission du signal (latence essentiellement), d’efficacité énergétique et de, de sécurisation des données… bref d’organisation au sens large. Il serait à mon sens interessant de rentrer également dans ces considérations.
Par la suite j’aborderais les différentes fonctions du datacenter, sous les angles suivants : la fonction elle même, la structure, et la science fiction 🙂 Toujours en comparant la biologie et l’informatique. N’hésitez pas à réagir sur ce sujet et à me donner votre point de vue, cette convergence, cette hyperconvergence de connaissance est bien trop vaste pour une seule personne.
@VirtTom
PS : je remercie par avance tous ceux à qui j’ai empreinté ces magnifiques photos et j’ai laissé les copyright lorsqu’ils étaient présents !

Mon Datacenter est-il vivant ? 1ère partie

biologicalSDDC

FIG1 : Une cellule stockant de l’information binaire. (source inconnue)

 

Dans cette série d’articles, je vais développer quelques uns des concepts qui m’apparaissent tellement résonner avec ce que j’appellerais le début de l’ère du SDDC.
Cela me donnera l’occasion de me présenter, et me donne l’opportunité d’introduire mon blog qui parlera bien évidement des datacenters, de la virtualisation, de l’EUC et de biologie.
Dans une vie antérieure, j’ai reçu une formation en biologie cellulaire et en chimie organique avec une spécialisation en génétique. Il me semble que nous sommes toujours constitué de ce que nous avons été et de ce que nous voulons devenir. Ainsi, même si je suis ingénieur système depuis plus de 15 ans, même si je travailles sur la virtualisation depuis 10 ans, je suis toujours intéressé par des sujets comme la biologie du vivant, l’homéostasie, d’alimentation humaine, de biologie du sport et tout un tas de sujets aussi excitants les uns que les autres.
En tant que spécialiste de la Virtualisation, je dois maintenant faire face au dilemme de notre job. La connaissance du stack entier de la virtualisation, n’est plus la fondation sur laquelle je peux m’assoir et construire mon datacenter. L’information dans notre petit milieu est passé du filet d’eau (bon un gros filet en ce qui concerne les KB / best practices) de l’ère pré-vSphere à la rivière vSphere pour finalement passer au dessus de la digue et tout envahir. C’est excellent ! Je dirais même j’adore ça. Ca me rappelle mes études où les professeurs (surtout en biologie cellulaire…) nous racontais que la science était une bête sauvage qu’il fallait savoir chevaucher pour voir où elle nous menait.  Et vous savez quoi ? plus je pense à cela, plus je trouve des analogies avec la biologie. C’est quoi un backbone sinon une colonne vertebrale, le feedback, le cycle de vie, la réplication, un heartbeat, le greenIT, un grand nombre de concepts en biologie font sens si on essaye de les appliquer à l’informatique… et c’est bien normal ! l’informatique devient de plus en plus intelligente et les progrès en ingénierie robotique et médicale préfigurent une forme de convergence des 2 mondes.
L’analogie entre le SDDC (centre de donnée défini par logiciel ? beurk restons sur SDDC) et un organisme multicellulaire est pour moi une évidence. Un SDDC c’est juste une manière de concevoir le Datacenter comme un ensemble complexe de hardware automatisés et pilotés par un logiciel. Son but ? faire « vivre » des applications dans les meilleures conditions possibles tout en étant économiquement viable. A mon sens cela reste proche de la définition d’un organisme : un organisme est viable dans le temps s’il est écologiquement viable : soit il a le temps de se reproduire soit il ne peut pas. L’écologie n’est pas un monde de bisounours vert, globalement l’écologie est la sience qui étudie les chaines alimentaires dans un écosystème donné… pas très éloigné de l’économie en somme.
Dans le prochain article, nous aborderons les différents composants d’un datacenter automatisé en continuant l’analogie avec la biologie :

  • l’énergie,
  • l’intelligence,
  • l’adn,

tout en rentrant plus dans les détails cette fois.

covert_cell_cover2

Fig2 : modèle informatique d’une cellule (http://blog.threestory.com/wordpress/tag/cell)

A très vite !
VirtTom

MEET THE CHAD – EMC ROCKS

CHAD2

Mon premier article se présente sous la forme d’un interview. Invité par EMC pour rencontrer CHAD SAKAC, Senior VP EMC monde, ça ne se refuse pas ! cet article / interview s’interessera donc au stockage, et la vision si particulière de CHAD. Ceci n’est pas une retranscription de l’interview qui dura plus de 2h mais plutôt une synthèse via les 2 grosses questions qui lui ont été posées. Les propos de CHAD exprimés ici n’engagent donc que l’auteur de cet article. J’espère néanmoins rester fidèle à l’esprit de ses paroles :

Quelle sont les tendences 2013 pour EMC ?

pour CHAD, la stratégie EMC est clairement identifiée, elle est constante depuis 2012 et ne va pas changer pour l’instant : Cloud, Trust et BigData.

Ces 3 concepts se tiennent mutuellement, le BigDATA étant au centre du besoin client, TrustedIT et le cloud computing permettant de le mettre en place. CHAD nous remonte que ces sujets ont maturés depuis l’année dernière et ses clients sont passé de

« – You do What ??? » en 2012,

à

« -Oh BigData it’s cool ! » en 2013 !

Pour lui le gros challenge restera le TRUST (trustedIT) qui est le point central dont tout découlera. Il a même inventé un mot pour souligner son propos : 2012 a été une année transformationnelle pour le concept du TRUST. Il faut que les entreprises n’aient pas peur du cloud pour qu’il se propage à l’échelle mondiale. Le contexte international étant tendu, TRUST doit rassurer les clients. Ce concept lui a permis de nous raconter quelques anecdotes et en particulier celle-ci :

 Récemment, alors qu’il se trouvait en europe, il a souhaité offrir un voyage à toute sa famille (l’europe et notamment la france est un pays cher à son coeur !). Il a donc contacté AMEX Travel par téléphone qui l’a tout de suite renvoyé sur le service des contentieux qui lui a dit qu’il y avait des manipulations criminelles sur son compte. La personne de chez AMEX se confond d’excuses car sa carte doit être annulée et CHAD réplique,
« – mais non ! tu ne dois pas t’excuser de faire ton travail, merci ! MERCI !
la personne en face est heureuse
– Nous avons effectivement un système qui détecte ce genre de malversations et coupe automatiquement les carte non sécurisés… Merci d’être un client de AMEX,
chad répond :
« – merci d’être un client de EMC »

Chad insiste beaucoup sur ce fait qui pour lui ainsi que pour EMC est essentiel. EMC a d’ailleurs réalisé de gros investissement en NetWitness, analyse de log, jusqu’à la récente acquisition de Silver Tail. Un vaste sujet que je vais creuser.

Que pensez-vous du SDDC ?

Le software defined datacenter fait beaucoup de bruits, génère beaucoup de buz autour de lui cette année. Cependant de quoi parle-t-on ?

[NDLA] de ce que j’en comprends, il s’agit d’une suite de brique logiques permettant de piloter un Data Center complet. On pourrait ajouter que cela fait référence à 3 briques primaires : le stockage, le réseau et les serveurs. 

Chad s’est logiquement concentré sur la partie stockage, expliquant que la stratégie VMware est clairement de converger vers le SDDC, ou du moins le composant serveur (même si la convergence vers le Network est aussi bien amorcé avec le rachat de NICIRA ainsi que les avancées avec CISCO).

Alors que les nouvelles sur le rachat de VIRSTO, la rumeur gronde sur le net, aussi Chad a tout de suite voulu désamorcer la polémique : il n’y a pas de conflit entre VMware et EMC sur le stockage. La solution VIRSTO est bonne,cependant elle se concentre surtout sur le Data Path pour l’optimiser vis à vis de la virtualisation. EMC traite certes du Data Path, cependant ce n’est qu’un des composant, un autre composant majeur étant le Data Control.

Il a passé une grosse demi-heure à nous donner sa vision du stockage en définissant 3 classes de stockage par rapport au chemin emprunté par la donnée et aux mécanismes de contrôle sous-jacents : STORAGE coupling

La classe dite standard ou Tightly Coupled Architecture (comprenant notamment les VNX, NetAPP FAS, Nexenta par exemple).

Elle comprend un faible nombre de « cerveaux » liés entre-eux : les contrôleurs de baie mis en cluster. Typiquement il s’agit de 2 controleurs en cluster même si des variations cosmétiques peuvent survenir (actif actif / actif passif / les contrôleurs ne voient pas tout les volumes). De même, que ce soit du software rajouté sur du harware ou directement le hardware piloté en « boite noire ». Matériellement ils seront identiques.

Par exemple, si on veut déployer un NEXENTA en HA, il faudra utiliser une connectivité SAN / réseau identique à une architecture pure VNX, des disques dual port avec autorisation d’accès pour pour les storage processor…

La principale qualité de cette technologie est sa relative simplicité (le PATH d’une IO est le plus direct : 2000 ligne de code compilé pour rendre une IO persistante) qui permet de développer rapidement des fonctions / dataservices (HA par exemple) tout en limitant les coûts.

Son principal défaut étant qu’elle manque d’agilité une fois déployée. Le « scale out » va complexifier rapidement l’infrastructure et nécessiter beaucoup de travail pour le réaliser. Le CAPEX va alors être contrebalancer par l’OPEX et le maintient en condition opérationnel d’application critique relativement difficile à gérer.

Pour finir, Chad nous explique que la logique d’EMC est de considérer que le scale out doit être inclu directement dans le controleur lui même. Voila pourquoi EMC n’investit pas, contrairement à d’autres sociétés, sur le SCALE OUT de cette classe mais préfère développer d’autres architecture.

La classe dite faiblement couplée ou loosly coupled Architecture (VMAX, 3 PAR, HDS, Isilon, ExtremeIO par exemple).

Dans ces architectures, le lien est léger (pas ephémère mais faible). La donnée peut donc être servie indifféremment par un pool de « cerveaux ». Chad insiste à ce moment sur ce point qui pour lui est fondateur : la manière de concevoir le DATA PATH détermine le type de classe. En l’occurrence  la donnée, une IO va parcourir 10 fois voir 50 fois plus de lignes de code compilées dans une VMax que pour une VNX.

Le scale out est possible (64 est théoriquement atteignable mais difficile à réaliser pour l’instant) cependant le nombre d’IOPs pouvant être géré par noeuds (à taille d’IO constante) est limité par la capacité transactionnelle de l’architecture. De même la latence augmente proportionnellement aussi. Cette classe n’est par contre pas aussi figée que la classe standard (le degré de maturité n’est pas non plus le même dans la plupart des cas) et il y a des variations entre les produits. Plus le produit va tendre vers du Tighly Coupled, plus la latence va diminuer et le transactionnel va être efficace, au détriment du scale out.

La classe non couplée (Centerra, ATMOS, Swift). 

Ici, les noeuds sont totalement découplés. Il n’y a pas de dépendance persistante entre les noeuds. Le gros avantage est donc que l’on peut les gérer à une échelle énorme. Un autre avantage étant bien sur qu’il n’y a pas d’adhérence forte au matériel et tout type de matériel peut être utilisé. Bien évidemment, 2 points contrebalancent ces avantages :

  • La performance est directement dépendante du matériel utilisé : le fait de masquer les difficultés de présentation ne résoud pas magiquement la problématique de performance.
  • Le fait de ne pas avoir d’adherence forte implique une communication entre les différents noeuds et par ce fait une perte de performance, une augmentation de la latence.
Il y a clairement des efforts à réaliser dans ce domaine pour arriver à maturité.

Et finalement le SDDC :

Voilà donc au final le SDDC ? nous (EMC et Chad) pensons que le SDDC est un objectif fondamental de VMware. Toute la stratégie (NDLA : hormis le VDI ?) de VMware tend vers ce but. Donc la stratégie de EMC suit aussi ! cependant le SDDC en stockage, c’est uniquement du type 3, de la classe non couplée de stockage. Cependant est-ce que le modèle de présentation objet permet de répondre à tout ? Chad formule son point de vue, forcément pas suffisamment marketing pour être exprimé directement sous la forme d’une interogation, d’un Haiku :

Si tu penses que tous les types de workload différents, d’architectures différentes peuvent trouver leur réponse dans un stockage de type 3 tout en maintenant un coût pour le Go alors oui tu peux faire du SDDC. 

Il ajoute il y aura bien sur de la commoditisation du stockage cependant le SDDC en stockage, ce n’est pas pour tout de suite. Retrouvons nous dans 3 ans et nous ferons le pari il y aura toujours du type 1 et type 2. Il ajoute même dans 20 ans !

Conclusion : 

Cet article m’a pris un peu de temps pour être rédigé. Entre-temps, de nombreuses annonces tombent chaque jour sur le stockage ! comme le nouveau cloud VMAX dont on reparlera certainement très rapidement. Attendez-vous à quelques articles de ma part sur le stockage. Car c’est décidé, 2013 pour moi, c’est l’année du stockage ! et du capacity management mais ça c’est une autre histoire.

VirtTom