LLDOT4 : retour sur le .NEXT à Nice

LLDOT4-FIG1Fig1 : le .NEXT 2017 à NICE !

Alors que la poussière retombe sur la baie des anges après le passage d’une tribu HiTech ayant appris la joie simple qu’il y avait à taper dans ses mains (j’invite ceux qui ne comprennent pas l’allusion à visionner le début de la keynote day1), je voulais revenir sur les annonces des 2 .NEXT et de ce qu’on est en droit d’attendre de Nutanix. Pas d’articles cette semaine si vous souhaitez en savoir plus mais une trentaine de .pdf et des heures de vidéos sur youtube respectivement ici et ici.

D’abord pour ceux qui en doutaient encore, Nutanix n’est plus une appliance. C’est bien plus ! On parle d’ailleurs bien plus du logiciel qui tourne dessus que du matériel. Tel un bâtisseur des temps anciens, Nutanix a su construire une base solide sur laquelle s’appuyer afin de porter sa vision. L’hyperconvergence est un outil qui doit servir un but bien plus vaste que j’ai largement abordé dans la LLDOT3. Pour une description complète de la démarche, en français et en « lightboard » s’il vous plait ! c’est par ici :

LLDOT4-FIG2Fig 2 : Nutanix France sur Youtube Lightboard Session – Vision d’ensemble

Concrètement, cela va se traduire comment ? Comme toujours chez Nutanix qui a adopté la méthodologie DEVOPS non pas pour communiquer mais bien pour développer ses produits, il faut suivre ! L’infrastructure On Premise va bien évidemment porter un Cloud Privé. En effet toutes les annonces ces derniers mois voir dernières années, si l’on savait lire entre les lignes, mènent au cloud privé, en particulier depuis Asterix. Maintenant que Obelix est annoncé, on se doute bien que les services associés vont aussi enfler !

L’année dernière à Vienne, ce qui m’avait complètement bluffé était l’intégration de la gestion des switches qui laissait entrevoir une gestion de la migration de VM entre nœuds / cluster proprement hallucinante (que celui qui n’a jamais eu à souffrir des demandes de reconfiguration de port sur un switch en salle server me jette la première pierre !). Avec la 5.5 vient le stockage objet compatible SC3… On y reviendra plus tard, cependant avec l’intégration hybride envisagée c’est une vraie bombe ! Un stockage objet c’est une brique importante qui manquait pour une intégration cloud privé. Un stockage objet, un orchestrateur et un « market place » le tout reposant sur une infrastructure robuste, fiable, sécurisée et dans la mesure du possible le tout en 1 clic ? Sérieusement ? Sérieusement oui et ce n’est pas fini. Car la virtualisation c’est bien, mais la conteneurisation pour l’automatisation c’est mieux ! Et on arrive naturellement à l’intégration de Kubernetes. Quoi de mieux que l’intégration de la star des orchestrateurs de conteneurs ? en effet, développé par google pour son propre besoin, Kubernetes est opensource et présente l’immense intérêt de ne pas être « vendor lockedin », rentrant complètement dans la philosophie des produits développés par Nutanix.

Rapidement, Kubernetes propose une solution permettant d’orchestrer via un ou plusieurs « master » (couche contrôle) l’exécution (arrêt / redémarrage, équilibrage de charge, bref ce que l’on connait depuis des années en virtualisation VMware grâce à vCenter) d’application conteneurisées sur une infrastructure (en l’occurrence ici un cluster Nutanix) les : « nodes » portant des « pods » (groupement de 1 ou plusieurs conteneurs) constituant la couche exécution. Enfin un intermédiaire, la couche découverte est rendu nécessaire par la décorrélation entre le conteneur isolé et la couche physique afin de localiser les différents éléments et rendre possible l’orchestration (et devinez quoi ? ça repose sur un service de stockage distribué type clé / valeur : etcd). Par ailleurs, l’orchestration est rendue possible par interrogation d’API REST !

Du coup, un interfaçage avec la suite de produits Nutanix, oserais-je même écrire le framework de cloud Nutanix, parait simple, Nutanix étant RESTful depuis le début. C’est d’ailleurs ce qui selon moi confère à cette suite de produit un tel alignement à la vision portée depuis les prémices. Tout est plus simple quand tout a été prévu pour rester simple. L’intégration à PRISM central se gère comme d’autres composants, Prism étant déjà Full Rest !

LLDOT4-FIG3

Fig3 : Take a REST !

Et ensuite ? Eh bien il y en a encore ! En effet les clients qui ne sont pas cloud natives mais ont un désir de migrer une partie de leur workload dans celui-ci sont rapidement confronté à un problème. Certes il est simple de créer une machine, de monter une architecture serverless dans le cloud mais qu’en est-il de l’administration ? De l’interfaçage avec l’existant ? Des équipes en place ? Des processus d’entreprise ? Bref que faire de mon existant ? Déjà, une bonne première étape pourrait être de commencer par m’appeler. Plus sérieusement définir une stratégie, gérer le changement pour opérer cette stratégie me semble bien plus important que d’acheter un produit. Maintenant lorsque la maturation suffisante est atteinte, il y a de bonne chance qu’une stratégie multi-cloud soit envisagée. Et c’est là que Xi Hybrid Cloud intervient ! Fournir une interface homogène (pas facile à trouver une traduction sympa pour single pane of glass) permettant de gérer son cloud privé et son cloud public c’est plutôt agréable ! Fournir un moyen d’adresser indifféremment les cloud publics c’est mieux ! Comme évoqué dans la LLDOT 3, cette possibilité est fournie en particulier par Xi Hybrid Cloud Service. Enfin une possibilité de respecter le contrat « NO SILO » que le cloud nous avait promis ! car il faut l’avouer, ce n’est pas la multiplication des technologies, des consoles, des méthodes, des équipes ! qui va nous conduire au NO OPS…

Tout cela orchestré grâce à Calm.io permettant via une intégration de type Market Place, des BluePrint customisables, une interaction avec des API REST… Et pour les lier tous, PRISM CENTRAL !

Vous l’aurez compris, dans ma lettre au père noël, j’ai demandé un projet d’intégration cloud hybride sous Nutanix !

Publicités

La Lettre de l’oncle TOM (LLDOT3)

Bonjour à tous !

Ces dernières semaines ont été riches en annonces tenant en haleine le monde de l’IT et ce n’est pas prêt de s’arrêter ! En effet, même s’il y a beaucoup plus de marketing autour de nos métiers (que celui qui n’a jamais utilisé le terme digital me jette la première pierre !), que de changements dans les salles serveurs, la révolution numérique n’en est pas moins là !

LLDOT3-FIG1

FIG 1: la révolution numérique. Tiré de : lemag-numérique.com

Nous pourrions étendre la vision de cette révolution à une révolution historique, une nouvelle ère cependant il est préférable ici de se focaliser sur le domaine qui nous intéresse en premier lieu : l’IT.

Dans ce billet, je vous propose d’aborder l’évolution des infrastructures en brossant ce qui un tableau possible des prochains mouvements dans le cloud computing du point de vue d’un acteur, cher à mon cœur, qui tente d’exister au milieu des mastodontes, j’ai nommé Nutanix !  pour cela je vous propose une analyse d’un article de The register : https://www.theregister.co.uk/2017/10/06/nutanix_google_amazon_azure/

Bien heureux celui qui réussira à déterminer de manière claire et sûre quel sera le paysage de l’IT en 2025 voir même en 2020 ! Maintenant, alors que de plus en plus de sociétés franchissent le pas du cloud public, le champ des possibles se réduit ! Parler d’un écosystème me semble plus que pertinent. Afin de clarifier l’analogie, je pousserais plus loin : imaginons un monde où les dinosaures de l’IT, les prédateurs suprêmes viennent de subir une conflagration, la météorite cloud public ! L’analogie n’est pas tout à fait exacte, loin de moi l’idée de pronostiquer l’extinction de certaines espèces. Mais tout de même, disons que le haut de la chaine alimentaire, ces grosses sociétés qui mangent les petites ne peuvent plus fonctionner comme avant. D’abord l’innovation va trop vite, ce bouillonnement d’idées, de technologies explose et le cloud public permet alors aux petites sociétés de suivre un développement ultra-rapide, d’imaginer un modèle de développement et ainsi battre les sociétés trop bien installées pour évoluer aussi vite. Je pense ici à des sociétés comme Netflix et Tesla ! Dans notre milieu, l’infra, les dominants ont tous une part d’innovation dans leur ADN et il est moins simple pour les petites sociétés de se donner un moyen d’exister. Selon l’article du Register, les grosses sociétés contrôlant le marché du cloud (occidental comme un commentateur l’a précisé, Alibaba étant de la partie avec sa filiale Alyun ainsi que Baidu et Tencent le BAT veut détrôner le GAFA !) ce seront-elles qui « domineront » le monde de l’IT dans les années à venir.

Cet article est avant tout un commentaire, une synthèse suite à une récente interview du président de Nutanix, Mr Nair. Le point de vue développé ici, correspond bien à une réalité terrain que l’on perçoit : au-delà du discours marketing sur le cloud public se pose le constat de la gestion de l’existant et de sa migration éventuelle dans une offre cloud globalisée, hybride afin de répondre au mieux au besoin. Sans aborder les changements que cela implique au niveau :

  • des méthodes de travail des métiers,
  • de la gestion des données et des risques associés,
  • de l’administration globale de l’IT !
  • de l’amortissement des investissements passés et présents…

Si l’on se concentre sur l’aspect transformation purement techniques, il devient évident que les sociétés avec un minimum d’historique ne peuvent migrer en un claquement de doigts. De plus ces sociétés ne peuvent tout migrer dans le cloud public sans une refonte complète. Les 3 plus gros acteurs du cloud public présents sur nos marchés occidentaux se doivent donc de proposer une alternative. Et ceci est valable également pour les fournisseurs de matériel et de logiciels liés à l’infrastructure ! En effet, s’il n’y a plus de renouvellement de datacenter, ou une baisse dans l’utilisation de l’IT on premise, ceci va avoir un impact direct sur leur volume de vente !

LLDOT3-FIG2

FIG 2 : le cloud hybride, les 3 Kaïju. Tiré de l’article de theregister.co.uk

L’acteur semblant le mieux positionné pour occuper le marché, l’écosystème du cloud hybride est bien évidemment Microsoft. Avec son offre Azure / Azure Stack, Microsoft adresse à lui seul l’ensemble du marché. Le leader du marché n’est pas en reste avec les grosses annonces conjointes AWS / VMware, le partenariat répond à une exigence forte de client ayant virtualisé leur SI et souhaitant passer à l’étape d’après. Enfin quid de google ? si l’on en croit the register, un premier acteur positionné sur le sujet est un acteur du monde du HCI KVM. Scale Computing ! L’implémentation du cloud par Google reposant sur un hyperviseur KVM, c’est naturellement vers cet hyperviseur on premise que l’on peut se diriger et Scale Computing est un de ces acteurs. Certes. Cependant le leader du marché des HCI n’est pas en reste ! Clairement, et c’est bien là le cœur de l’article que nous analysons ici, Nutanix a montré qu’il était plus qu’un acteur du stockage distribué. Les ambitions de Nutanix vont bien au-delà et leur proposition de valeur est la suivante : fournir aux clients une infrastructure de cloud permettant de lier simplement (c’est LE leitmotiv selon moi) leur infrastructure cloud privé et le cloud public. Leur OS d’hyperviseur étant KVM depuis le début, il était donc naturel que Nutanix se positionne comme partenaire Google ! Pour autant Nutanix dans les faits comme dans son discours a toujours cherché à étendre sa surface de partenariat, la possibilité de positionner leurs produits pour les rendre compatibles avec le marché.

LLDOT3-FIG3

FIG 3: un ecosystème est un cycle ! tiré de sfecologie.org.

S’intégrer plutôt que pousser les autres. S’intégrer à son écosystème pour exister. Cela implique que les partenariats, les concurrences, le codéveloppement sont des étapes de l’existence de la société. L’écosystème subissant une profonde restructuration, une révolution ! il parait naturel que ces interactions entre entreprises soient changeantes. Du point de vue de Nutanix, il parait du coup plus simple de tenter d’intégrer un maximum d’acteurs majeurs et c’est ce qu’ils font ! Aussi leur premier partenariat avec un acteur du cloud public était AWS. Maintenant VMware a accéléré pour les dépasser par la bande et signer un partenariat stratégique avec Amazon. Dont acte pour Nutanix, et c’est naturellement qu’on peut s’attendre à un partenariat avec Google ! Attendez-vous à beaucoup de nouvelles annonces autour de Google, Kubernetes chez Nutanix !

La Lettre de l’oncle TOM LLDOT2

Un sujet plus « stratégique » cette semaine !

l’évolution du stockage et en particulier le fameux SSD ! Je vous préviens on s’écarte largement de notre quotidien et on déborde largement de l’ITexpertise. Vous l’apprenez peut-être mais Apple va investir massivement dans TOSHIBA : voici les articles par lesquels je vous propose de commencer : rachat de toshiba par apple !

et https://www.letemps.ch/economie/2017/04/14/apple-etudie-un-investissement-filiale-pucesmemoires-toshiba : Une histoire de gros sous par ailleurs fort instructive sur l’évolution des grandes entreprises et la dure loi du marché et des marchés d’état. Mais là n’est pas ce qui m’intéresse ici. De quoi parle-t-on ?

LLDOT-FIG1

Fig1 : Tiré de l’article sur le rachat par Apple de letemps.ch

En effet un autre article annonçait également le rachat de la filiale mémoire : http://www.tomshardware.com/news/wd-buys-toshiba-memory,35402.html que l’on va croire sur parole  et qui citait un article rédigé en japonais. Ce qui m’intéresse ici c’est donc le marché du NAND ! ou plutôt des flash NAND à la base de la fabrication de nos sacro-saints disques SSD. Revenons rapidement sur le NAND Flash :

Flash ça date de 1980 par un ingénieur de Toshiba et présenté à l’IEEE en (ça ne s’invente pas) 1984. Toujours chez Toshiba, l’architecture NAND sort en 1989 et la mémoire flash est accessible comme un matériel en mode bloc, chaque bloc correspondant à un certain nombre de pages de 512 à 4096 octets. Les pages ayant un espace réservé pour les fonctions d’ECC. Bien évidemment la technologie a évolué depuis son invention et à partir de 2005, le flash NAND a réellement explosé pour passer de MLC à 1GB à des TLC 3D de 64 couches de 512Gb permettant d’avoir des disques de 32 TB !

LLDOT2-FIG2

Fig2 : tiré du site toshiba.com

Pour le détail sur le NAND Flash c’est ici : https://en.wikipedia.org/wiki/Flash_memory#NAND_flash

Passionnant !

L’article que je vous invite à lire maintenant , https://www.theregister.co.uk/2017/08/24/ssds_will_not_kill_off_hdds/ met en avant le fait que le marché n’est pas prêt de s’inverser entre NAND FLASH et disques magnétiques. Globalement il dénonce (en mode lanceur d’alerte anonyme du plus bel effet !) l’écart entre le discours du tout vers le flash  et la réalité du marché en volume. On aurait ainsi un volume de production mondiale du NAND en 2015 de environ 60 EB (un exabyte correspondant à 1000 milliards de GB) soit 15 EB uniquement pour le stockage serveur (puisque 75% des nand flash produites sont destinées au marché end user) avec une demande globale évaluée à… 3 ZB de données stockées d’ici 2020.

En clair, les 550 EB de volume de HDD produits en 2015 ne sont pas prêt d’être « effacés » par le SSD non ? En effet et on s’en rend bie ncompte au quotidien chez nos clients, si la production est en augmentation, la consommation également ! Et ce n’est pas l’arrivée du NVMe (globalement une nouvelle interface mais pas un changement de technologie NAND Flash) qui va changer la donne. De plus il est complexe de saisir l’évolution du marché dans la mesure où la demande de NAND est toujours utilisé en grande partie par les produits grand public. La réalité est donc qu’il y a augmentation du prix :

LLDOT2-FIG3

Fig3 : Tiré de flashbay.fr

Même si dans les faits le consommateur peut constater une « baisse » des prix. Faites un retour arrière sur vos achats SSD ces dernières années et vous constaterez comme moi que cette « baisse » n’est pas si rapide ni effective ! il faut comparer ce qui est comparable et le marché s’est diversifié…Appelez-moi quand vous trouvez un SSD 512 Go à 100€. Après il n’y a pas que moi qui le dit mais Chad et Duncan (cf http://www.lemagit.fr/actualites/450413238/La-penurie-de-NAND-pesera-sur-le-marche-du-stockage-Flash-tout-au-long-de-2017 ou encore ici https://www.allaboutcircuits.com/news/taking-apart-the-global-nand-memory-shortage/). Tout cela maquillé sous un changement technologique (nécessaire que les choses soient claires, vive le 3D NAND :). Après il est certain que la production va certainement s’accélérer puisque la loi de l’offre et de la demande va certainement vers plus de NAND ! en attendant l’avènement du 3D-Xpoint ou d’une autre technologie.

Le couple hybride cache SSD (SATA ou NVMe) stockage de masse sur HDD a encore de beaux jours devant lui. Lorsque l’on a lu bien des articles sur l’évolution du marché du SSD, des baies « full flash » cet article est  tout à fait surprenant ! Du coup la stratégie de VMware sur les sorties de features VSAN uniquement en Full Flash prête à questionnement, mais ça c’est une autre histoire !

Et vous qu’en pensez-vous ?

 

LA LETTRE DE L’ONCLE TOM (LLDOT 1)

Ce billet est issu de mon travail actuel. Il m’a en effet été demandé de fournir une vision sur des sujets choisis dans mes lectures récentes, et fournir ainsi la base d’une reflexion / discussion au sein de l’équipe, trop cool !

helloworld-1

fig1 : hello World! tiré de mychromebook.fr

je vous propose d’aborder 2 sujets qui m’ont apparu intéressant sur les 15 derniers jours. Pour cette première lettre, les sujets seront centrés sur :

  • le monde de la virtualisation,
  • le monde de l’infrastructure,

 

ce ne sera pas des articles / annonces / produits / concepts arrivés sur la scène les 15 derniers jours, je ne suis pas journaliste d’investigation !:) mais bien des points qui m’ont marqué sur la période. Un article / billet est à la base de la synthèse et sera fourni en fin de sujet. Il abordera donc un sujet précis en fournissant une première analyse. Ici je vous propose :

  • VMware annonce l’arrivé de « VMware Cloud on AWS » au VMworld !
  • une nouvelle révolution dans le monde de l’infra avec DATRIUM ?

 

VMware Cloud on AWS

On l’attendait tous ! Après les annonces fracassantes fin 2016 (d’aucuns diraient afin de contrer les annonces de leurs concurrents 😉 faites par VMware ainsi que la sortie de VMware Cloud Foundation on n’en pouvait plus d’attendre !

 

Globalement, VCF permet d’intégrer toute la stack compute + network + storage de VMware en un produit automatisable par VRA pour la partie privée et un cloud public pour la partie hybride. Au final la solution reste un repackaging de produits existant (VSAN / NSX /ESXI 6.x) intégrés dans un matériel « ready » to HCI afin de fournir la plateforme qui pourra être gérée par VRA / VRO. Du coup on comprend l’intérêt de pousser cette plateforme via un fournisseur de cloud, ça sera forcément compatible avec du on premise !

vmware-cloud-foundation-graphic-100679671-large-idge

fig 2 : Cloud Foundation, tiré du site vmware.com

Le plus amusant dans l’histoire restant bien entendu l’intégration AWS. Pourquoi ce choix ? plusieurs raisons selon moi cependant globalement cela permet aux 2 majors de se serrer les coudes afin d’affronter la concurrence. VMware a subit un échec cuisant à vouloir s’installer dans le cloud public et AWS n’a pas d’offre FULL STACK pour contrer son concurrent le plus sérieux à savoir AZURE. Alors oui les 2 sociétés ne sont pas à genoux (en particulier Amazon qui est bien trop gros pour avoir peur de quoi que ce soit concernant son cloud public). Néanmoins le cas est sérieux. VMware doit muter afin de se renouveler alors que OPENSTACK, DOCKER  et maintenant NUTANIX voir pourquoi pas AZURE STACK v3 présentent des alternatives sérieuses au stack VMware. Les différents rachats et leur adoption relative par le marché (allons au-delà des annonces marketing sur ce point) pose un problème. La diversité et le manque de cohérence entre les différents produits également. Sans parler de leur intégration qui est parfois à s’en arracher les cheveux. Bref il était temps de réagir ! les annonces autour de docker, la volonté réelle de migrer vers photon OS pour toutes leurs appliances, la volonté de simplifier leurs produits phares en sont une autre pour notre plus grand bonheur, espérons que nous pourrons rapidement mettre la main dessus !

Ça buz à mort sur le net de l’IT sur ce sujet. Pour l’annonce initiale c’est ici : http://ir.vmware.com/overview/press-releases/press-release-details/2017/VMware-and-Dell-EMC-Partner-to-Deliver-First-Data-Protection-Solution-for-VMware-Cloud-on-AWS/default.aspx.

Et les sites qui en parlent bien évidemment VMware :

https://www.vmware.com/cloud-services/vmware-cloud-aws.html

et Amazon sont un bon départ !

https://aws.amazon.com/fr/vmware/

 

Datrium DVX V3 signe l’arrivée de l’Open-convergence dans l’arène du SDS !

Là-dessus je pourrais parler des heures et écrire bien plus que de raison ! aussi je vous invite à aller voir le site, ou pour les plus chanceux, à les rencontrer au VMworld ! https://www.datrium.com/. L’Open-convergence est un chainons manquant dans le toolkit d’un spécialiste d’accompagnement au changement / Solution Architect puisqu’il remplit un vide comblé par le trop méconnu DATACORE : proposer une solution de SDS permettant d’accélérer l’ensemble d’une infrastructure existante. DATACORE proposait une approche « storage centric » dans le sens où l’on conserve le stockage existant en le boostant. DATRIUM propose une approche « vm centric » dans le sens où la solution s’intègre directement dans les hyperviseurs existant. Il n’est par contre pas possible d’utiliser directement le stockage, il faudra le recycler, dommage !

g_datriumdvx_simplify_consolidate

fig 3 : openconvergence ; tiré du site DATRIUM

fondée en 2012 par des fondateurs de Data Domain et des architectes  VMware, révélé en V1 en janvier 2016, alors que le BUZZ autour de l’hyperconvergence battait son plein, autant dire qu’on ne les a pas vu venir ! Cloud Native et DEVOPS dans l’âme, le produit a évolué depuis sa sortie puisqu’il passe maintenant en V3 ! l’architecture DVX repose sur 2 composants : l’appliance hardware portant le stockage (Netshelf ou DVX Data Node) et la partie logicielle (DiESL). L’appliance matérielle est une juste une « commodité » : des CPU portant un gros tas de disque (JBOD quoi) avec une redondance matérielle totale. La partie logicielle est reliée (en 10 GB qu’on se le dise !) à des hyperviseurs (ou Compute Node qui peuvent maintenant être achetés directement chez DATRIUM via leur offre DVX Rackscale systems) devant respecter un certain nombre de caractéristiques dont bien évidemment 1 ou plusieurs SSD. Cette partie va s’occuper de filtrer les traitements pour rediriger les écritures vers les Data Nodes et laisser les lectures en local. Cette partie est installées sur l’hyperviseur mais pas dans le kernel et s’occupe de toute les opérations nécessitant du CPU (déduplication, cryptage, compression, erasure coding…)

fig 3 : openconvergence ; tiré du site DATRIUM

evolution-1024x831

fig 4 : DVX vs concurrence ; tiré du site DATRIUM

Quels avantages un client peut-il tirer de cette technologies quand il y a tant d’offres HCI ?

  • Le premier avantage technique, l’élasticité, va permettre d’optimiser le CAPEX. Pas besoin d’investir sur le compute (du moins s’il porte ou peu accepter facilement du SSD) ou du moins toujours l’utiliser sans nécessiter des changement conséquents. Cela permet vraiment d’adopter la solution petit à petit, ce qui peut être plus ou moins simple avec du HCI.
  • L’élasticité permet également de disposer dans un cloud privé de solution vraiment spécifique (4+ pCPU pour des fermes de calcul par exemple) sans mettre en cause l’ensemble de l’infrastructure.
  • Enfin cette élasticité permet de faire évoluer indépendamment storage et compute sans impacter l’autre partie du système. Cela simplifie encore le calcul.
  • Cette séparation claire permet enfin de simplifier le troubleshooting de la solution complète

Bref, vous l’aurez compris je suis conquis !

HYPERCONVERGENCE : La révolution du SDDC

Afin de fêter la nouvelle année, je relance mon blog avec une série d’articles sur l’hyperconvergence. Ce premier article, en forme d’introduction, me permettra de centraliser les différents sujets qui tourneront autour de la convergence de l’hyperviseur.
Avant d’aborder de manière poussée les différents concepts / produits qui sous-tendent ce sujet, il m’apparait nécessaire de bien définir ce que j’entends par hyperconvergence

  • Qu’est-ce que l’hyper convergence ?

L’hyperconvergence, n’est pas une hyper-convergence, une GIGA CONVERGENCE qu’il faudrait voir comme un élément ultime. C’est vraiment dans le sens  convergence dans l’hyperviseur qu’il faut le comprendre. L’apparition de l’hyperviseur et son explosion au milieu des années 2000 a imposé de plus en plus de stress au matériel. En effet les concepts qui sous-tendaient l’architecture IT était alors plutôt dédié à du client-server x86 voir à des gros systèmes. Le stockage en particulier par son aspect centralisé et monolithique a longtemps empêché de prévoir un scaleout simple.

Un boitier hyperconvergé, HCI en anglais, est donc un boitier concentrant le compute, le stockage et les liens réseau permettant de se relier au réseau global entreprise. Le noeud d’hyperviseur, voir plusieurs noeuds dans un boitier 2U devient l’élément atomique, la commodities, la cellule dans mon modèle de datacenter organique.

  • Prenons un exemple :
Il est normal qu’un service de développement logiciel ait besoin pour un projet donnée de mettre en place une infrastructure rapidement afin de commencer à développer ASAP pour répondre à la demande client . Attendre 8 mois pour obtenir une VM car le budget de l’IT a été consommé et qu’il faut racheter une baie de stockage n’est pas envisageable. Que reste-il comme option ? rajouter une VM ? rajouter xVM ? admettons que le projet prenne de l’importance,  il faut déployer un environnement de production, de préproduction, de formation, une vitrine.  et c’est la lente agonie de l’infrastructure que l’équipe de développement va subir. Cela vient-il de la conception ? de l’infrastructure répartie ? où est le bottleneck ? c’est extrêmement interessant pour l’expert technique de rechercher la cause dans le sens où il va devoir investiguer toute la chaine aller dans le coeur du système, du stockage… mais pour le client final ? et pour le business ? dans tous les cas après l’analyse comment corriger ? qui paye la nouvelle infrastructure ?

  • L’hyperconvergence ça vient d’où ? 
 Les premières tentatives de convergences ont eut pour initateurs CISCO au milieu de sannées 2000. Grâce à des partenariats / joint-ventures avec les 2 leaders du stockage que sont NETAPP et EMC². avec respectivement le FlexPOD et le vBlock, les premières architectures convergentes sont nées. Les idées derrières ces architectures convergées sont louables :

  • fournir un matériel testé et dimensionné pour le workload demandé,
  • lier le compute, le stockage et le network dans un stack (en général une baie complète),
  • proposer un support unique. Au moins au niveau du point d’entrée,
  • proposer une architecture éprouvée et validée par un éditeur.
Suite à cela, l’approche dite en bundle a fait beaucoup de bruit fin des années 2000
Seulement cela ne répond pas au besoin. Cela permettait de prévoir plus simplement une charge mais cela ne permettait pas de prendre en compte  l’évolution de cette charge. Le coût d’un tel package avec une brique de base de l’ordre de la baie complète est tout sauf anodin ! sans parler de la complexité qui n’était pas si simplement gérée que cela.

  • Pourquoi l’hyperconvergence ?
Comme on l’a vu, la virtualisation et l’accélération du delivery qu’elle a imposée aux équipes IT est un élément de réponse. Cependant cela n’explique pas tout selon  moi. Une explication qui me semble très pertinente selon moi vient de S.Poitras (ou du moins c’est sur son blog que j’en a pris conscience pour la première fois).
La latence.

nutanixBible_IO_latency
Figure 1 : les différentes latences temps de traitement induits par des IO. (Nutanixbible.com)

Quand on regarde ce comparatif sur les différents temps moyens pris par les contrôleurs / HDD / SSD pour réaliser une action type que voit-on ?
Jusqu’à l’avènement de la consommation de masse du disque SSD, la latence disque était due pour une bonne part aux disques eux mêmes. Lorsque l’on réalisait le design d’une architecture, il fallait soigner particulièrement le nombre d’axes, les types de raid, le cache des contrôleurs, les QueueDepth des différents composants… bref le stockage était un bottleneck critique, dont le point central était le disque. D’autant plus qu’il représentait un gros investissement et un scaleout proche de zéro.
Le SSD a finalement mis la pression sur les contrôleurs des baies ainsi les contrôleurs réseaux/fabric FC qui deviennent les points de contention, le débit et la latence ayant été grandement augmentée.
L’hyperconvergence est donc apparue pour répondre à un besoin de simplification, de scaleout ET de performance (le stockage au plus proche du compute).

  • Au final quels sont les bénéfice de l’hyperconvergence pour une IT ?
Si l’on reprend les différents points évoqués, c’est une véritable simplification de l’architecture doublée d’un scaleout prévisible et avec des paliers faible.

Pour reprendre l’exemple précédent : Si le manager de l’IT peut prédire avec l’équipe projet métier les besoins en terme d’infrastructure pour son projet et d’évaluer rapidement ce que cela va impliquer. S’il peut même commander le matériel en avance de phase (1, 2, 10 blocs), l’installer en quelques jours / semaines. Et au final si le projet peut monter en puissance sans impacter l’infrastructure et que l’infrastructure peut évoluer sans impacter les machines. N’est-ce pas le rêve pour le métier, le client et l’IT ?

En conclusion :

Dans ce billet j’ai pû introduire le sujet de l’hyperconvergence en douceur. Par la suite on va descendre petit à petit et plonger au coeur de la technique. Il ne me semble pas approprié de confronter les technologies sur leur performances pures. D’abord, les services marketing de ces sociétés font cela bien mieux que moi. Ensuite, il me semble plus pertinent regarder les différentes approches techniques, leur roadmap, la vision que j’en ai et leur intégration aux IT que je côtoie au quotidien depuis maintenant plus de 15 ans. Cette série d’article sera donc focalisée sur ces points :

  • les potentialités,
  • ce qu’il y a en dessous,
  • Comment cela s’intègre aux autres éléments de l’ecosystème
  • Comment cela s’intègre à une IT

 

Stay Tuned !

 

@virttom

Mon Datacenter est-il vivant ? deuxième partie

MDCV2-1
Fig1 :I’m alive !
En lisant le freebook de VMware « Virtualization 2.0 for Dummies » (excellent au passage, du moins si vous ne cherchez pas de Deep Dive techniques, le format est trop court pour cela) je me suis apperçu que le sujet était on ne peut plus d’actualité. Dès l’introduction les auteurs renvoient à l’image du Dr Frankenstein, « it’s aliiiive ». Nous allons voir qu’il nous reste encore de la marge avant d’arriver à cela cependant la vision est là. Puisque nous en sommes aux images d’ordinateurs (franchement je préfère de loin computer mais bon restons en au français), rien ne saurait remplacer les auteurs de sciences fiction. Ces visionnaires, souvent d’un haut niveau scientifiques nous ouvrent la voie. Qui ne connait pas les 3 principes de la robotique de Asimov ? Skynet ? et bien sûr la matrice… Toutes ces images sont plaisantes et à l’ère de l’imprimante 3D, de la réalité augmentée dans la poche, du Webscale et du cloud elles résonnent de plus en plus avec notre réalité. Il devient alors nécessaire, pour ne pas dire urgent de nous organiser, d’organiser nos datacenter avant d’avoir à affronter un colosse anarchique, un ogre énergivore.
Avant de partir plus avant sur l’énergie sans laquelle aucune vie n’est possible laissez-moi revenir sur une notion d’importance lorsque l’on parle de vie et d’oganisme. La cellule.
 MDCV2-2
Fig2 : Cellules et glandes du métabolisme phosphocalcique
Si l’on met de côté le virus qui selon les critères actuels n’est pas considéré comme un organisme vivant à proprement parler, le constitutant de base d’un organisme est la cellule (théorie de Scheiden et Schwann jamais remise en question). Certains, en fait la plupart des organismes vivants se contentent d’une cellule. C’est une unité autosuffisante et fascinante, dans l’histoire de la vie, on pourrait dire qu’elle constitue le premier bit : avant elle des êtres archaïques, un bouillon de culture, même si elle est organique, la science qui les étudie reste de la chimie. Avec elle, la vie. Après elle ? la science fiction.
La biochimie, science qui étudie la chimie du vivant, commence avec les archéobactéries. Ces bactéries archaïques ont permis  de créer les conditions nécessaire au développement des autres être vivants (du moins en l’état actuel des connaissance). Certaines traces se retrouvent encore dans les cellules, dans nos cellules, les mitochondries, l’usine à carburant. Le matériel génétique (nous aurons l’occasion d’y revenir lors de la partie dédiée au stockage) de ces bactéries, de ces traces intégrées à nos cellules complexes, n’a pratiquement pas varié en des milliard d’années. C’est proprement fascinant et cela indique clairement à quel point ces fonctions sont vitales.
De quoi est constituée notre cellule ?
Nous nous concentrons ici sur les familles complexes appelée Eucaryotes par opposition aux procaryotes (bactéries, archeobactéries).
298969381_small
Fig3 : Les différences entre Procaryotes et Eucayotes
De quoi est constituée cette cellule Eucaryote ?
  • Elle est isolé du monde extérieur, par une double-paroi faite de lipides (la manière la plus simple et la plus fluide de séparer 2 liquides c’est la double paroi lipidique). Comme une bulle de savon mais plus complexe car séparant 2 milieu liquides. Cette paroi est aussi appelée enveloppe.
  • D’un matériel génétique regroupé dans un noyau,
  • d’unité permettant de convertir l’énergie, les mitochondries,
  • et d’un liquide composé en grande partie d’eau et d’une quantité incalculable de molécules plus ou moins complexes.

Ceci permet à la cellule, d’assurer sa fonction (dans le cas d’un être pluricellulaire sinon c’est toutes les fonctions !) comme de secréter de la bile pour une cellule du foie. Ceci permet également le maintient de son homéostasie (son équilibre) et enfin sa pérennisation (duplication / réplication du matériel génétique).

Je vous invites maintenant à lire un peu sur ce sujet car je dois m’arrêter là afin de recentrer sur ce qui nous intéresse, le DATACENTER !
Le constituant unitaire de notre datacenter, quel est-il dans ces conditions ? pour moi, il est évident que c’est l’ordinateur. Un terme un brin désuet, mais suffisamment générique pour englober plusieurs fonctions spécialisées du datacenter. L’ordinateur est présent bien évidemment sous la forme de server, c’est le constituant le plus connu. Il est aussi présent dans un contrôleur de baie de stockage, dans un switch IP, et dans bien d’autres matériels présents   dans notre « macro-organisme », notre SDDC.
Jusqu’à il y a une quinzaine d’années, la vaste majorité des ordinateurs étaient constitués d’une enveloppe physique. Ce n’est plus le cas. L’avènement de la virtualisation nous permet d’entrer dans un modèle encore plus proche de ce que représente l’unité d’organisation de type cellule. Cela fait bien longtemps que je considère un serveur comme une enveloppe, un bios et un OS ! pour les contrôleurs réseau / stockage c’est une autre histoire. Mais cela viendra ! en fait c’est déjà là…
Mais alors qu’est-ce qu’un serveur hôte ? un terme inadapté si vous voulez mon avis. Je préfère de loin le terme hyperviseur car il s’inscrit dans mon modèle et rempli un espace bien connu lorsque l’on décrit un être pluricellulaire : l’organe.
Prenons un corps humain. Certes il est constitué de cellules, mais ces cellules sont organisées en niveau de spécialisation ! nous ne sommes pas un mycelium (organisation pluricellulaire d’être unicellulaires bien connues des biologiste s’intéressant à la biologie du sol : là encore wikipedia est votre ami).
Nous sommes bien plus complexes et nos cellules sont hyper spécialisées, organisées en unité assurant une fonction bien définies. La liste est longue, trop longue mais pensez à la différence entre un neurone, une cellule musculaire, une cellule de la peau ou des poumons, une cellule des intestins ou du système sanguin, une ovule (bien que là, ce ne soit pas tout à fait une cellule…). Lorsque cela est nécessaire (en ce qui nous concerne c’est toujours le cas), une organisation intermédiaire regroupant ces cellules spécialisées voit le jour : un faisceaux musculaire, un nerf (faisceau de neurones), une veine. On parle souvent de tissus.
 Au niveau encore supérieur on parle d’un organe. Constitué de plusieurs types de tissus et relié à d’autres organes, d’autres tissus, il permet de remplir des fonctions de manière très efficaces. On assiste à une consolidation de fonctions dans un but commun : absorption d’oxygène, motilité, absorption des nutriments, transport du sang, sudation… Il est souvent organisé en unités de production secteurs, segments…) bref en cluster !  le dernier niveau s’appelle le système (système vasculaire, endocrinien, digestif…). On voit tout de suite que ces différents niveau d’abstraction font sens également dans notre SDDC : le système de stockage, le système de sauvegarde, le réseau tout est système ! Voila pourquoi cela ne me dérange pas de porter la casquette d’expert système, même si je ne suis pas sur de mettre la même signification que mes compères ou mes patrons sur le sujet 😉
Dans le cas de notre SDDC, nous avons donc pour la partie server : une VM (la cellule), un hyperviseur (le tissus spécialisé), un cluster (un organe), un vcenter (production, developpement…). Selon la taille du SDDC toutefois, les niveaux d’organisation diffèrent, on peut avoir un cluster, voir un resource pool de production par exemple. Ceci n’est pas en soit un problème car comme tout modèle scientifique, il est limité, perfectible et pour ainsi dire… vivant ! ce n’est surement pas un dogme et je compte sur la communauté pour me faire évoluer encore sur le sujet.
Pour la partie SDS, et donc le stockage, là encore nous pouvons imaginer plusieurs niveaux d’organisation au delà du miroir : les stacking de controleurs, de switches… nous reviendrons allegrement sur la partie stockage qui représente pour moi un volet à part entière, tellement de choses bougent dans ce milieu !
Même réflexion sur le réseau, bien que là, cela ne soit clairement pas ma partie, aussi il va falloir me laisser plus de temps pour « piocher » dans cette mine…. le SDN est en train d’exploser à grande vitesse on va y revenir vite !
Malgré tout, si on reste à un haut niveau de compréhension (rien à voir avec l’expertise ni le terrain donc…) on voit une corrélation, une convergence sur ce que doit être, ce que doit devenir le datacenter de demain voir d’après demain si l’on considère qu’un modèle plus biologiquement intégré doit voir le jour.
On peut aussi inclure les constitutants qui ne sont pas des cellules, pas des ordinateurs dans ce modèle : un baie schroff, un les câbles divers et variés, les sondes, les batteries sont des éléments de notre SDDC. Au même titre qu’un os, un ongle, un ligament ou un cheveux ! nous sommes constitués de cellules… mais pas seulement !
La datacenter comme un être pluricellulaire est donc constitué de briques unitaires assemblées par spécialités selon plusieurs niveaux d’organisation, afin de rester efficace en grandissant. (je préfère ce terme au terme grossir) La répartition au sein du datacenter répond également à des nécessités d’efficacité de transmission du signal (latence essentiellement), d’efficacité énergétique et de, de sécurisation des données… bref d’organisation au sens large. Il serait à mon sens interessant de rentrer également dans ces considérations.
Par la suite j’aborderais les différentes fonctions du datacenter, sous les angles suivants : la fonction elle même, la structure, et la science fiction 🙂 Toujours en comparant la biologie et l’informatique. N’hésitez pas à réagir sur ce sujet et à me donner votre point de vue, cette convergence, cette hyperconvergence de connaissance est bien trop vaste pour une seule personne.
@VirtTom
PS : je remercie par avance tous ceux à qui j’ai empreinté ces magnifiques photos et j’ai laissé les copyright lorsqu’ils étaient présents !

BOOTCAMP EUC VMware 2015

 

Il est des invitations qu’il est difficile de refuser aussi est-ce en rang serré que nous sommes arrivés au Bootcamp EUC organisé par VMware : pas moins de 5 Nwariens, commerciaux et AVV confondus.
Personnellement, je fréquente plutôt le club des experts INFRA ; cependant, ma position actuelle ainsi que ma curiosité naturelle me poussent à aller vers l’EUC.

L’offre VMware bouge beaucoup avec de nombreuses acquisitions dans ce secteur particulier, dont la plus impressionnante (plus grosse acquisition VMware depuis sa création) : Airwatch pour la bagatelle de 1,6 milliards de dollars. Les acquisitions comme Cloud Volumes ou Immidio permettent à VMware de se positionner sur l’ensemble du stack VDI.

 

Il manquait juste quelques petites bricks pour être en confrontation directe avec Citrix, le précurseur.

 

VMware a présenté l’avenir du Desktop sous la forme d’un SBC (server based computing): un Desktop non persistant servi sur une base de server avec du App Volumes pour la partie applicative et du Immidio by VMware (acquisition trop récente pour un changement de nom) pour la partie profil (bye bye RTO Software). C’est plutôt surprenant quand on suit tout cela de loin :) Mais après quelques déploiements Citrix, on se rend bien compte que XENAPP et ses équivalents ont un côté plus léger et dynamique (et une base de 100 millions de déploiement…) qui peuvent donner envie.

 

Mon voisin vExpert et spécialiste Citrix (entre autres) n’avait pas l’air plus surpris que cela de ce revirement. Nous sommes tombés d’accord sur le fait que cela apporte la souplesse nécessaire à la suite Horizon pour entrer en compétition avec Citrix. La vertu de la virtu a cela de complexe que la souplesse implique de délivrer le meilleur dans un cas donné afin de conquérir le marché. Sinon, on prend le concurrent…

 

Il faut donc retenir que VMware a développé une offre Workspace Suite, aka Workspace Of The Future, regroupant Horizon Desktop, Airwatch Mobile, Content Locker.

 

On parle maintenant de Just In Time Desktop (à quand le NearCDP Desktop ?) ou JIT avec des VDI non persistants qui se construisent en quelques secondes. On parle également de Workspace inside ou outside, quelle importance ? Hybride, public quelle importance ? On assiste donc à un virement dans la communication VMware : cloud public, puis cloud hybride et maintenant, choisissez monsieur le client. Franchement, c’est plutôt un bon signe.

Vision globale, vision client, on répond.

 

VMware annonce également que Airwatch propose une solution hébergée dans le cloud adopté dans 70% des cas. Même si le présentateur ne précise pas que l’hébergement Airwatch, c’est juste l’hébergement du connecteur (sécurisé et simplement administrable) à la plateforme de déploiement / messagerie, elle même connectée… à un exchange interne. On n’a pas (encore) étudié les caractéristiques, ni eu l’occasion de conduire un déploiement Airwatch permettant la distribution d’applications, de carnets d’adresses et autres sandbox entreprise. L’intérêt du « On Premise » dans ces cas-là étant certainement plus évident.

 

Le fil rouge de la journée sera « la continuité digitale », un terme plutôt bien trouvé.

 

Nous nous séparons ensuite en 2 groupes commerciaux et AVV.

 

Une très belle session avant le brunch qui va présenter toutes les innovations présentes dans la Workspace suite, abordant le sujet de manière plus technique, plus approfondie. On aborde également le futur, qui se rapproche sacrément vite.

 

Dans les features sexy, App Volumes, c’est la killer app ! Une application disponible sous la forme d’un VMDK partagé, ça sonne vraiment bien, fini les déploiements. L’intégration au stack VMware est en cours, et nos propres tests & POC sur le sujet sont plus que prometteurs, les clients en veulent ! Et App Volumes n’est pas dédié aux produits VMware, qu’on se le dise !

 

Annoncé au VMworld, voici Horizon FLEX, plus prégnant que jamais dans un contexte où la sécurité en entreprise est plus une affaire de sécurisation des données accédées par les différents devices que de bastion et autres firewalls. Un outil centralisé permettant de gérer les espaces de travail entreprise en environnement BYOD, une intégration plus forte de Mirage à la suite Horizon ; on signe où ?

 

A retenir également : l’avenir du vDesktop avec accélération graphique. Le vGPU va faire son apparition, patience, mais ça donne envie !

 

A noter, même si l’on n’est plus dans la mise en avant comme en 2011-2013, vCloud Air qui ajoute une pierre DaaS à son édifice. Le cloud public va bien réussir se déployer un jour en France :)

 

Au final, une belle journée qui rappelle les bootcamps de la première heure, tout en élevant le niveau des discussions AVV – vente : la stratégie, adoptée aussi chez Nware, est vraiment axée sur les solutions unifiées permettant de répondre aux besoins en mobilité plutôt que sur les produits. En accompagnant le client dans sa recherche de solutions, on se tournera forcément vers le haut du panier, celui qui les unifie tous en environnement virtualisé (Google, Microsoft et Apple) : VMware est en bonne position…

A suivre !

 

Thomas Charles – Chef de projet

– See more at: http://www.makeitsimple.fr/2015/03/25/bootcamp-euc-vmware-2015/#sthash.VblNsmre.dpuf

Mon Datacenter est-il vivant ? 1ère partie

biologicalSDDC

FIG1 : Une cellule stockant de l’information binaire. (source inconnue)

 

Dans cette série d’articles, je vais développer quelques uns des concepts qui m’apparaissent tellement résonner avec ce que j’appellerais le début de l’ère du SDDC.
Cela me donnera l’occasion de me présenter, et me donne l’opportunité d’introduire mon blog qui parlera bien évidement des datacenters, de la virtualisation, de l’EUC et de biologie.
Dans une vie antérieure, j’ai reçu une formation en biologie cellulaire et en chimie organique avec une spécialisation en génétique. Il me semble que nous sommes toujours constitué de ce que nous avons été et de ce que nous voulons devenir. Ainsi, même si je suis ingénieur système depuis plus de 15 ans, même si je travailles sur la virtualisation depuis 10 ans, je suis toujours intéressé par des sujets comme la biologie du vivant, l’homéostasie, d’alimentation humaine, de biologie du sport et tout un tas de sujets aussi excitants les uns que les autres.
En tant que spécialiste de la Virtualisation, je dois maintenant faire face au dilemme de notre job. La connaissance du stack entier de la virtualisation, n’est plus la fondation sur laquelle je peux m’assoir et construire mon datacenter. L’information dans notre petit milieu est passé du filet d’eau (bon un gros filet en ce qui concerne les KB / best practices) de l’ère pré-vSphere à la rivière vSphere pour finalement passer au dessus de la digue et tout envahir. C’est excellent ! Je dirais même j’adore ça. Ca me rappelle mes études où les professeurs (surtout en biologie cellulaire…) nous racontais que la science était une bête sauvage qu’il fallait savoir chevaucher pour voir où elle nous menait.  Et vous savez quoi ? plus je pense à cela, plus je trouve des analogies avec la biologie. C’est quoi un backbone sinon une colonne vertebrale, le feedback, le cycle de vie, la réplication, un heartbeat, le greenIT, un grand nombre de concepts en biologie font sens si on essaye de les appliquer à l’informatique… et c’est bien normal ! l’informatique devient de plus en plus intelligente et les progrès en ingénierie robotique et médicale préfigurent une forme de convergence des 2 mondes.
L’analogie entre le SDDC (centre de donnée défini par logiciel ? beurk restons sur SDDC) et un organisme multicellulaire est pour moi une évidence. Un SDDC c’est juste une manière de concevoir le Datacenter comme un ensemble complexe de hardware automatisés et pilotés par un logiciel. Son but ? faire « vivre » des applications dans les meilleures conditions possibles tout en étant économiquement viable. A mon sens cela reste proche de la définition d’un organisme : un organisme est viable dans le temps s’il est écologiquement viable : soit il a le temps de se reproduire soit il ne peut pas. L’écologie n’est pas un monde de bisounours vert, globalement l’écologie est la sience qui étudie les chaines alimentaires dans un écosystème donné… pas très éloigné de l’économie en somme.
Dans le prochain article, nous aborderons les différents composants d’un datacenter automatisé en continuant l’analogie avec la biologie :

  • l’énergie,
  • l’intelligence,
  • l’adn,

tout en rentrant plus dans les détails cette fois.

covert_cell_cover2

Fig2 : modèle informatique d’une cellule (http://blog.threestory.com/wordpress/tag/cell)

A très vite !
VirtTom

mes 2 cents sur vsphere 5.5 part 3

dans cette partie, je vais me focaliser sur les améliorations côté réseau. Là encore cette release apporte son lot de modifications importantes mais aussi introduit un nouveau produit, NSX. Je me suis laissé dire qu’à terme il remplacera DVS. Nous verrons bien !

en attendant une série d’amélioration concernant directement le DVS.  LACP : Lacp étant l’aggregation de liens réseau dynamique par CISCO, il était normal que vSphere le supporte. C’était déjà le cas depuis la 5.1.

  • supporte jusqu’à… tenez vous bien… (tenez vous mieux on voit tout là !) 64 groupes de liens par hosts (LAGs) et par DVS. Avant ? c’etait 1 🙂
  • Le nombre d’algorithme de load balancing passe de 1 (« route based on IP hash » si mes souvenirs sont bons) à… 22 !
  • Un template peut être généré afin d’accélérer la configuration qui se faisait par host précédemment…
  • La configuration est réalisée au niveau du DVS et non du port group
  • le support de liens 40 Gb est arrivé ! bon pour les riches geeks pour le coup 🙂
  • ACL : le traffic filtering basé sur des règles par : adresse IP, adresse MAC ou type (ICMP… etc)
  • QOS tagging : afin de prioriser finement le traffic (toujours dans l’optique de virtualiser les applications critiques), il y a maintenant possibilité de gérer des SLA, au niveau 3 (au niveau du header IP donc et non plus au niveau du header ethernet comme en 5.1), gestion de la bande passante, conservation du tag après passage sur un switch physique, donc gestion de la QoS de bout en bout.
  • SR-IOV : bon autant être honnête, on rentre maintenant dans les côté obscure de mes connaissances réseau ! mais enfin ceux qui sont intéressés : présenter une carte PCIe comme plusieurs matériels réseau était possible depuis la 5.1.
  • Maintenant la configuration a été simplifiée. De plus la configuration des ports groups (VSS comme DVS) est maintenant propagée à l’ensemble des « fonctions virtuelles » de la carte.
  • Enfin un nouvel outil, comparable à TCPDUMP de linux a été ajouté à l’ensemble des outils disponibles pour le « troubleshooting ».
  • NSX : l’achat de NICIRA en 2012 promettait du lourd et là il faut reconnaitre (bon j’ai pas testé encore) que ça va pulser ! un petit pas pour l’homme un grand pas pour le SDDC… En bref (ne rêvez pas en clair il faudra repasser) l’abstraction des couches réseau de la 2 à la 7 est effective !  Bon il reste la couche  1 là oui ça va être compliqué de la supprimer quand même 🙂  On passe donc au modèle d’hyperviseur réseau et là il va falloir que je révise beaucoup le sujet pour bien l’intégrer.

D’ors et déjà, on peut distinguer plusieurs composants :

  • le contrôleur NSX ou plutôt le cluster de contrôleurs en l’occurrence (un minimum de 3 est préconisé) qui partagent la partie… contrôle du traffic. Il peut se représenter par 1 VM si l’on est en environnement pur VM, ou sous la forme d’une appliance en cas d’environnement multi-hyperviseurs. Oui il y a déjà le support (au minimum) de KVM et XEN !
  • NSX virtual switch : en environnement full VMware, c’est tout simplement un agent (UW agent) qui va communiquer permettre la communication du DVS et du contrôleur. En environnement hétérogène, open vSwitch pour KVM et XEN et… NSX vswitch for ESXi, le nouveau vswitch ! (ça fait maintenant 3 VSS, DVS et NVS ? NVE ?)
  • NSX Gateway : classique, il faut bien pouvoir gérer les entrées sorties de l’environnement NSX, en attendant que le monde soit NSXisé du moins ;). la gateway apporte des fonctionnalités tant au niveau 2 qu’au niveau 3 et permet les échanges vers le monde physique et le monde virtuel, indifféremment. Là encore soit on est en full VMware et on peut utiliser un vapp NSX Edge (précédemment vShield Edge). Sinon il faut des appliances physiques (lesquelles… je dois encore creuser désolé).

NSX fourni des services sur 5 fonctionnalités essentielles :

  • switching,
  • routage,
  • firewalling,
  • load balancing et
  • VPN (bon il va falloir que je bascule en anglais si ça continue là…).

Je n’irais pas plus avant car il faut maintenant que je mette les mains dans le cambouis ! comptez sur moi pour m’y mettre sérieusement dès Barcelone 🙂 et il y aura d’autres billets sur ce sujet, sur de sur.  J’ai certainement oublié beaucoup de choses sur ces 3 parties cependant il me semble que l’essentiel est là. N’hésitez cependant pas à commenter si il y a eu un trou dans la raquette !

mes 2 cents sur vsphere 5.5 part 2

Une bonne partie des nouvelles annonces concerne le stockage. C’est bien naturel quand on voit toutes les annonces autours du stockage ces derniers temps. Dire que le SSD est en train de révolutionner l’infrastructure est tout sauf un « bulshit » marketing ! honnêtement il y a maintenant énormément de technologies, d’évolution qui découlent de ces petites boites qui envoient de l’IO…Je vous invite à suivre les blog du fameux chad aka @sakacc ou de cormac hoggan aka @vmwarestorage, mes guru sur le sujet. Très clairement,  vmware ne pouvait pas laisser passer le train sur le sujet. Surtout pas avec son positionnement sur le SDDC ! De très bonnes choses dans cette mouture donc :

  1. Vsphere flash read cache :en voilà une fonctionnalité qu’elle est bonne !!! vSphere disposait déjà de la possibilité de disposer d’un cache SSD pour la partie hôte, la version 5.5 apporte un read cache pour la partie VM ! et ce cache est compatible avec les fonction de haute disponibilité, de continuité d’activité… Concrètement, un pool de ressource flash va être configuré en prenant tout ou partie SSD des ESXi elligibles. Une nouveau système de fichier a été implémenté, VFFS  Ensuite, ces ressources peuvent être réparties entre « host swap cache » (pour… on s’en doute ! gérer le SWAP mémoire) et du « VM read memory cache »… seul point noir à l’horizon pour moi, il faut gérer le VM read cache par VM ! un peu de conf en perspective donc. A voir ce que ça va donner dans les faits, la techno étant encore récente.
  2. VSAN :tiens ça fait quoi  ça ? Un module kernel qui utilise le stockage local d’un pool d’esxi en mode hybride exclusivement (1ssd + 1 hdd par esxi minimum) OMG ! pour le coup le nom San pour désigner un pool de disque locaux est bizarre mais la technologie c’est bon ! Pas nouveau mais bon car forcément pleinement intégré à l’interface (uniquement l’ihm Web au passage) et pilotable par le client (Web…).  On nous annonce des policies qui vont simplifier l’administration et augmenter la Qos.
    Bien évidemment,  VSAN travaille au niveau du cluster et s’intégrera parfaitement avec les fonctionnalités de HA / DRS / SDRS qui font toute la qualité d’une infra vmware. L’intégration du compute et du storage prend tout son sens, et on voit bien qu’il ne s’agit pas d’un repackaging de VIRSTO ou de VSA mais bien d’une nouvelle solution. Le cluster a pour l’instant des limitations fortes : 3 à 8 hôtes possédant 1 HDD et 1 SDD pour la partie stockage. Ensuite certains hôtes pourront consommer des ressources stockage sans en apporter ça c’est pour le côté dynamique… J’attends fébrilement de pouvoir tester tout cela,  d’en voir le prix cependant cela promet de bonnes choses,  de nouvelles pistes pour les clients et…  Nous 🙂

On A donc un accélérateur de « read io »  et une solution de stockage partagé pour la « write io. A voir comment tout cela va pouvoir s’intégrer avec les solutions de stockage existantes et pourquoi pas virsto (VSA me semble hors sujet et dédié à de petites structures voir… Voué à disparaître ?) La dernière partie concernera la dernière brique de l’édifice SDDC : le réseau ! Avec ces technologies de stockage le réseau devient on ne peut plus central puisqu’il intègre aussi la partie « control pane »  du stockage !