La Lettre de l’oncle TOM (LLDOT3)

Bonjour à tous !

Ces dernières semaines ont été riches en annonces tenant en haleine le monde de l’IT et ce n’est pas prêt de s’arrêter ! En effet, même s’il y a beaucoup plus de marketing autour de nos métiers (que celui qui n’a jamais utilisé le terme digital me jette la première pierre !), que de changements dans les salles serveurs, la révolution numérique n’en est pas moins là !

LLDOT3-FIG1

FIG 1: la révolution numérique. Tiré de : lemag-numérique.com

Nous pourrions étendre la vision de cette révolution à une révolution historique, une nouvelle ère cependant il est préférable ici de se focaliser sur le domaine qui nous intéresse en premier lieu : l’IT.

Dans ce billet, je vous propose d’aborder l’évolution des infrastructures en brossant ce qui un tableau possible des prochains mouvements dans le cloud computing du point de vue d’un acteur, cher à mon cœur, qui tente d’exister au milieu des mastodontes, j’ai nommé Nutanix !  pour cela je vous propose une analyse d’un article de The register : https://www.theregister.co.uk/2017/10/06/nutanix_google_amazon_azure/

Bien heureux celui qui réussira à déterminer de manière claire et sûre quel sera le paysage de l’IT en 2025 voir même en 2020 ! Maintenant, alors que de plus en plus de sociétés franchissent le pas du cloud public, le champ des possibles se réduit ! Parler d’un écosystème me semble plus que pertinent. Afin de clarifier l’analogie, je pousserais plus loin : imaginons un monde où les dinosaures de l’IT, les prédateurs suprêmes viennent de subir une conflagration, la météorite cloud public ! L’analogie n’est pas tout à fait exacte, loin de moi l’idée de pronostiquer l’extinction de certaines espèces. Mais tout de même, disons que le haut de la chaine alimentaire, ces grosses sociétés qui mangent les petites ne peuvent plus fonctionner comme avant. D’abord l’innovation va trop vite, ce bouillonnement d’idées, de technologies explose et le cloud public permet alors aux petites sociétés de suivre un développement ultra-rapide, d’imaginer un modèle de développement et ainsi battre les sociétés trop bien installées pour évoluer aussi vite. Je pense ici à des sociétés comme Netflix et Tesla ! Dans notre milieu, l’infra, les dominants ont tous une part d’innovation dans leur ADN et il est moins simple pour les petites sociétés de se donner un moyen d’exister. Selon l’article du Register, les grosses sociétés contrôlant le marché du cloud (occidental comme un commentateur l’a précisé, Alibaba étant de la partie avec sa filiale Alyun ainsi que Baidu et Tencent le BAT veut détrôner le GAFA !) ce seront-elles qui « domineront » le monde de l’IT dans les années à venir.

Cet article est avant tout un commentaire, une synthèse suite à une récente interview du président de Nutanix, Mr Nair. Le point de vue développé ici, correspond bien à une réalité terrain que l’on perçoit : au-delà du discours marketing sur le cloud public se pose le constat de la gestion de l’existant et de sa migration éventuelle dans une offre cloud globalisée, hybride afin de répondre au mieux au besoin. Sans aborder les changements que cela implique au niveau :

  • des méthodes de travail des métiers,
  • de la gestion des données et des risques associés,
  • de l’administration globale de l’IT !
  • de l’amortissement des investissements passés et présents…

Si l’on se concentre sur l’aspect transformation purement techniques, il devient évident que les sociétés avec un minimum d’historique ne peuvent migrer en un claquement de doigts. De plus ces sociétés ne peuvent tout migrer dans le cloud public sans une refonte complète. Les 3 plus gros acteurs du cloud public présents sur nos marchés occidentaux se doivent donc de proposer une alternative. Et ceci est valable également pour les fournisseurs de matériel et de logiciels liés à l’infrastructure ! En effet, s’il n’y a plus de renouvellement de datacenter, ou une baisse dans l’utilisation de l’IT on premise, ceci va avoir un impact direct sur leur volume de vente !

LLDOT3-FIG2

FIG 2 : le cloud hybride, les 3 Kaïju. Tiré de l’article de theregister.co.uk

L’acteur semblant le mieux positionné pour occuper le marché, l’écosystème du cloud hybride est bien évidemment Microsoft. Avec son offre Azure / Azure Stack, Microsoft adresse à lui seul l’ensemble du marché. Le leader du marché n’est pas en reste avec les grosses annonces conjointes AWS / VMware, le partenariat répond à une exigence forte de client ayant virtualisé leur SI et souhaitant passer à l’étape d’après. Enfin quid de google ? si l’on en croit the register, un premier acteur positionné sur le sujet est un acteur du monde du HCI KVM. Scale Computing ! L’implémentation du cloud par Google reposant sur un hyperviseur KVM, c’est naturellement vers cet hyperviseur on premise que l’on peut se diriger et Scale Computing est un de ces acteurs. Certes. Cependant le leader du marché des HCI n’est pas en reste ! Clairement, et c’est bien là le cœur de l’article que nous analysons ici, Nutanix a montré qu’il était plus qu’un acteur du stockage distribué. Les ambitions de Nutanix vont bien au-delà et leur proposition de valeur est la suivante : fournir aux clients une infrastructure de cloud permettant de lier simplement (c’est LE leitmotiv selon moi) leur infrastructure cloud privé et le cloud public. Leur OS d’hyperviseur étant KVM depuis le début, il était donc naturel que Nutanix se positionne comme partenaire Google ! Pour autant Nutanix dans les faits comme dans son discours a toujours cherché à étendre sa surface de partenariat, la possibilité de positionner leurs produits pour les rendre compatibles avec le marché.

LLDOT3-FIG3

FIG 3: un ecosystème est un cycle ! tiré de sfecologie.org.

S’intégrer plutôt que pousser les autres. S’intégrer à son écosystème pour exister. Cela implique que les partenariats, les concurrences, le codéveloppement sont des étapes de l’existence de la société. L’écosystème subissant une profonde restructuration, une révolution ! il parait naturel que ces interactions entre entreprises soient changeantes. Du point de vue de Nutanix, il parait du coup plus simple de tenter d’intégrer un maximum d’acteurs majeurs et c’est ce qu’ils font ! Aussi leur premier partenariat avec un acteur du cloud public était AWS. Maintenant VMware a accéléré pour les dépasser par la bande et signer un partenariat stratégique avec Amazon. Dont acte pour Nutanix, et c’est naturellement qu’on peut s’attendre à un partenariat avec Google ! Attendez-vous à beaucoup de nouvelles annonces autour de Google, Kubernetes chez Nutanix !

Publicités

Mon Datacenter est-il vivant ? 1ère partie

biologicalSDDC

FIG1 : Une cellule stockant de l’information binaire. (source inconnue)

 

Dans cette série d’articles, je vais développer quelques uns des concepts qui m’apparaissent tellement résonner avec ce que j’appellerais le début de l’ère du SDDC.
Cela me donnera l’occasion de me présenter, et me donne l’opportunité d’introduire mon blog qui parlera bien évidement des datacenters, de la virtualisation, de l’EUC et de biologie.
Dans une vie antérieure, j’ai reçu une formation en biologie cellulaire et en chimie organique avec une spécialisation en génétique. Il me semble que nous sommes toujours constitué de ce que nous avons été et de ce que nous voulons devenir. Ainsi, même si je suis ingénieur système depuis plus de 15 ans, même si je travailles sur la virtualisation depuis 10 ans, je suis toujours intéressé par des sujets comme la biologie du vivant, l’homéostasie, d’alimentation humaine, de biologie du sport et tout un tas de sujets aussi excitants les uns que les autres.
En tant que spécialiste de la Virtualisation, je dois maintenant faire face au dilemme de notre job. La connaissance du stack entier de la virtualisation, n’est plus la fondation sur laquelle je peux m’assoir et construire mon datacenter. L’information dans notre petit milieu est passé du filet d’eau (bon un gros filet en ce qui concerne les KB / best practices) de l’ère pré-vSphere à la rivière vSphere pour finalement passer au dessus de la digue et tout envahir. C’est excellent ! Je dirais même j’adore ça. Ca me rappelle mes études où les professeurs (surtout en biologie cellulaire…) nous racontais que la science était une bête sauvage qu’il fallait savoir chevaucher pour voir où elle nous menait.  Et vous savez quoi ? plus je pense à cela, plus je trouve des analogies avec la biologie. C’est quoi un backbone sinon une colonne vertebrale, le feedback, le cycle de vie, la réplication, un heartbeat, le greenIT, un grand nombre de concepts en biologie font sens si on essaye de les appliquer à l’informatique… et c’est bien normal ! l’informatique devient de plus en plus intelligente et les progrès en ingénierie robotique et médicale préfigurent une forme de convergence des 2 mondes.
L’analogie entre le SDDC (centre de donnée défini par logiciel ? beurk restons sur SDDC) et un organisme multicellulaire est pour moi une évidence. Un SDDC c’est juste une manière de concevoir le Datacenter comme un ensemble complexe de hardware automatisés et pilotés par un logiciel. Son but ? faire « vivre » des applications dans les meilleures conditions possibles tout en étant économiquement viable. A mon sens cela reste proche de la définition d’un organisme : un organisme est viable dans le temps s’il est écologiquement viable : soit il a le temps de se reproduire soit il ne peut pas. L’écologie n’est pas un monde de bisounours vert, globalement l’écologie est la sience qui étudie les chaines alimentaires dans un écosystème donné… pas très éloigné de l’économie en somme.
Dans le prochain article, nous aborderons les différents composants d’un datacenter automatisé en continuant l’analogie avec la biologie :

  • l’énergie,
  • l’intelligence,
  • l’adn,

tout en rentrant plus dans les détails cette fois.

covert_cell_cover2

Fig2 : modèle informatique d’une cellule (http://blog.threestory.com/wordpress/tag/cell)

A très vite !
VirtTom

MEET THE CHAD – EMC ROCKS

CHAD2

Mon premier article se présente sous la forme d’un interview. Invité par EMC pour rencontrer CHAD SAKAC, Senior VP EMC monde, ça ne se refuse pas ! cet article / interview s’interessera donc au stockage, et la vision si particulière de CHAD. Ceci n’est pas une retranscription de l’interview qui dura plus de 2h mais plutôt une synthèse via les 2 grosses questions qui lui ont été posées. Les propos de CHAD exprimés ici n’engagent donc que l’auteur de cet article. J’espère néanmoins rester fidèle à l’esprit de ses paroles :

Quelle sont les tendences 2013 pour EMC ?

pour CHAD, la stratégie EMC est clairement identifiée, elle est constante depuis 2012 et ne va pas changer pour l’instant : Cloud, Trust et BigData.

Ces 3 concepts se tiennent mutuellement, le BigDATA étant au centre du besoin client, TrustedIT et le cloud computing permettant de le mettre en place. CHAD nous remonte que ces sujets ont maturés depuis l’année dernière et ses clients sont passé de

« – You do What ??? » en 2012,

à

« -Oh BigData it’s cool ! » en 2013 !

Pour lui le gros challenge restera le TRUST (trustedIT) qui est le point central dont tout découlera. Il a même inventé un mot pour souligner son propos : 2012 a été une année transformationnelle pour le concept du TRUST. Il faut que les entreprises n’aient pas peur du cloud pour qu’il se propage à l’échelle mondiale. Le contexte international étant tendu, TRUST doit rassurer les clients. Ce concept lui a permis de nous raconter quelques anecdotes et en particulier celle-ci :

 Récemment, alors qu’il se trouvait en europe, il a souhaité offrir un voyage à toute sa famille (l’europe et notamment la france est un pays cher à son coeur !). Il a donc contacté AMEX Travel par téléphone qui l’a tout de suite renvoyé sur le service des contentieux qui lui a dit qu’il y avait des manipulations criminelles sur son compte. La personne de chez AMEX se confond d’excuses car sa carte doit être annulée et CHAD réplique,
« – mais non ! tu ne dois pas t’excuser de faire ton travail, merci ! MERCI !
la personne en face est heureuse
– Nous avons effectivement un système qui détecte ce genre de malversations et coupe automatiquement les carte non sécurisés… Merci d’être un client de AMEX,
chad répond :
« – merci d’être un client de EMC »

Chad insiste beaucoup sur ce fait qui pour lui ainsi que pour EMC est essentiel. EMC a d’ailleurs réalisé de gros investissement en NetWitness, analyse de log, jusqu’à la récente acquisition de Silver Tail. Un vaste sujet que je vais creuser.

Que pensez-vous du SDDC ?

Le software defined datacenter fait beaucoup de bruits, génère beaucoup de buz autour de lui cette année. Cependant de quoi parle-t-on ?

[NDLA] de ce que j’en comprends, il s’agit d’une suite de brique logiques permettant de piloter un Data Center complet. On pourrait ajouter que cela fait référence à 3 briques primaires : le stockage, le réseau et les serveurs. 

Chad s’est logiquement concentré sur la partie stockage, expliquant que la stratégie VMware est clairement de converger vers le SDDC, ou du moins le composant serveur (même si la convergence vers le Network est aussi bien amorcé avec le rachat de NICIRA ainsi que les avancées avec CISCO).

Alors que les nouvelles sur le rachat de VIRSTO, la rumeur gronde sur le net, aussi Chad a tout de suite voulu désamorcer la polémique : il n’y a pas de conflit entre VMware et EMC sur le stockage. La solution VIRSTO est bonne,cependant elle se concentre surtout sur le Data Path pour l’optimiser vis à vis de la virtualisation. EMC traite certes du Data Path, cependant ce n’est qu’un des composant, un autre composant majeur étant le Data Control.

Il a passé une grosse demi-heure à nous donner sa vision du stockage en définissant 3 classes de stockage par rapport au chemin emprunté par la donnée et aux mécanismes de contrôle sous-jacents : STORAGE coupling

La classe dite standard ou Tightly Coupled Architecture (comprenant notamment les VNX, NetAPP FAS, Nexenta par exemple).

Elle comprend un faible nombre de « cerveaux » liés entre-eux : les contrôleurs de baie mis en cluster. Typiquement il s’agit de 2 controleurs en cluster même si des variations cosmétiques peuvent survenir (actif actif / actif passif / les contrôleurs ne voient pas tout les volumes). De même, que ce soit du software rajouté sur du harware ou directement le hardware piloté en « boite noire ». Matériellement ils seront identiques.

Par exemple, si on veut déployer un NEXENTA en HA, il faudra utiliser une connectivité SAN / réseau identique à une architecture pure VNX, des disques dual port avec autorisation d’accès pour pour les storage processor…

La principale qualité de cette technologie est sa relative simplicité (le PATH d’une IO est le plus direct : 2000 ligne de code compilé pour rendre une IO persistante) qui permet de développer rapidement des fonctions / dataservices (HA par exemple) tout en limitant les coûts.

Son principal défaut étant qu’elle manque d’agilité une fois déployée. Le « scale out » va complexifier rapidement l’infrastructure et nécessiter beaucoup de travail pour le réaliser. Le CAPEX va alors être contrebalancer par l’OPEX et le maintient en condition opérationnel d’application critique relativement difficile à gérer.

Pour finir, Chad nous explique que la logique d’EMC est de considérer que le scale out doit être inclu directement dans le controleur lui même. Voila pourquoi EMC n’investit pas, contrairement à d’autres sociétés, sur le SCALE OUT de cette classe mais préfère développer d’autres architecture.

La classe dite faiblement couplée ou loosly coupled Architecture (VMAX, 3 PAR, HDS, Isilon, ExtremeIO par exemple).

Dans ces architectures, le lien est léger (pas ephémère mais faible). La donnée peut donc être servie indifféremment par un pool de « cerveaux ». Chad insiste à ce moment sur ce point qui pour lui est fondateur : la manière de concevoir le DATA PATH détermine le type de classe. En l’occurrence  la donnée, une IO va parcourir 10 fois voir 50 fois plus de lignes de code compilées dans une VMax que pour une VNX.

Le scale out est possible (64 est théoriquement atteignable mais difficile à réaliser pour l’instant) cependant le nombre d’IOPs pouvant être géré par noeuds (à taille d’IO constante) est limité par la capacité transactionnelle de l’architecture. De même la latence augmente proportionnellement aussi. Cette classe n’est par contre pas aussi figée que la classe standard (le degré de maturité n’est pas non plus le même dans la plupart des cas) et il y a des variations entre les produits. Plus le produit va tendre vers du Tighly Coupled, plus la latence va diminuer et le transactionnel va être efficace, au détriment du scale out.

La classe non couplée (Centerra, ATMOS, Swift). 

Ici, les noeuds sont totalement découplés. Il n’y a pas de dépendance persistante entre les noeuds. Le gros avantage est donc que l’on peut les gérer à une échelle énorme. Un autre avantage étant bien sur qu’il n’y a pas d’adhérence forte au matériel et tout type de matériel peut être utilisé. Bien évidemment, 2 points contrebalancent ces avantages :

  • La performance est directement dépendante du matériel utilisé : le fait de masquer les difficultés de présentation ne résoud pas magiquement la problématique de performance.
  • Le fait de ne pas avoir d’adherence forte implique une communication entre les différents noeuds et par ce fait une perte de performance, une augmentation de la latence.
Il y a clairement des efforts à réaliser dans ce domaine pour arriver à maturité.

Et finalement le SDDC :

Voilà donc au final le SDDC ? nous (EMC et Chad) pensons que le SDDC est un objectif fondamental de VMware. Toute la stratégie (NDLA : hormis le VDI ?) de VMware tend vers ce but. Donc la stratégie de EMC suit aussi ! cependant le SDDC en stockage, c’est uniquement du type 3, de la classe non couplée de stockage. Cependant est-ce que le modèle de présentation objet permet de répondre à tout ? Chad formule son point de vue, forcément pas suffisamment marketing pour être exprimé directement sous la forme d’une interogation, d’un Haiku :

Si tu penses que tous les types de workload différents, d’architectures différentes peuvent trouver leur réponse dans un stockage de type 3 tout en maintenant un coût pour le Go alors oui tu peux faire du SDDC. 

Il ajoute il y aura bien sur de la commoditisation du stockage cependant le SDDC en stockage, ce n’est pas pour tout de suite. Retrouvons nous dans 3 ans et nous ferons le pari il y aura toujours du type 1 et type 2. Il ajoute même dans 20 ans !

Conclusion : 

Cet article m’a pris un peu de temps pour être rédigé. Entre-temps, de nombreuses annonces tombent chaque jour sur le stockage ! comme le nouveau cloud VMAX dont on reparlera certainement très rapidement. Attendez-vous à quelques articles de ma part sur le stockage. Car c’est décidé, 2013 pour moi, c’est l’année du stockage ! et du capacity management mais ça c’est une autre histoire.

VirtTom