Par Jean-Marie Simonin, en charge du Cloud & DevOps Business Development chez IPPON
Adieu veau, vache, cochon, couvée, l’infogérance est morte, la rente s’est envolée ! Il y a près de 30 ans, l’utilisation de l’informatique au sein des entreprises a créé un secteur drainant des milliers d’emplois : l’Infogérance. Service de maintenance Réseau, Hardware, Système et Applicatif, l’infogérance permet aux entreprises d’externaliser la gestion de leur parc informatique.
Dès les années 2000, des milliers d’informaticiens ont rejoint des plateaux de production afin d’installer et de maintenir des systèmes d’informations, appelés actuellement des « Ops ». Toujours dans les années 2000, les premiers administrateurs SI furent désignés comme des « couteaux suisse », mais rapidement relégués pour raison d’organisation empirique du Delivery et surtout de rareté des profils… Progressivement, des normes et bonnes pratiques d’exploitation ont vu le jour dont la plus connue s’appelle ITIL.
Des centres de services structurés ont vu le jour; toute une organisation s’appuyant sur des savoir-faire, répondant au besoin d’assemblage d’une IT stable et pérenne, s’est affairée pour installer des architectures de serveurs physiques ou virtuels, à maintenir des réseaux physiques ou virtuels, déployer des environnements systèmes et applicatifs, les maintenir en condition de sécurité.
Autour de ces services, les infogéreurs ont développé des offres commerciales, des catalogues de services des forfaits d’exploitation, du pilotage projet… Les contrats se sont empilés, constituant des revenus aux marges souvent alléchantes.
Le jour où tout a basculé…
Pourtant, ce métier éprouvant à l’organisation complexe mais aux marges attrayantes, a été tué un matin de 2006, lorsqu’un géant de la vente en ligne à annoncé la sortie de son offre d’hébergement : Amazon EC2. Amazon Web Services, en revendant une partie de l’infrastructure qui ne lui servait que lors des périodes de fort trafic, a identifié un moyen simple de mettre à disposition ses ressources de calcul : l’API.
L’API est un ensemble normalisé de classes, de méthodes ou de fonctions qui sert de façade par laquelle un logiciel offre des services à d’autres logiciels. On parle de Software defined infrastructure. C’est à partir de ce moment là que l’infrastructure est devenue pilotable par du code.
L’arrivée de l’API a bouleversé les usages et permis l’apparition de :
- L’abstraction, répandue dans le monde du développement logiciel. Elle est devenue un des attributs du Cloud, facilitant les manipulations du réseau, des machines virtuelles, des volumes disques, des environnements systèmes ;
- La programmatique, qui permet d’enchaîner des commandes afin d’automatiser le fonctionnement de l’infrastructure ;
- Le mode On-Demand, qui a satisfait le besoin de disposer de ressources immédiatement ;
- La consommation horaire, qui répond aux besoins de montée en charge, et permet la bonne gestion des investissements IT pour les nouveaux projets.
Pour résumer, le Cloud a permis de mettre à disposition des entreprises un outillage permettant d’industrialiser, d’automatiser, de stabiliser l’IT et surtout de simplifier sa gestion quotidienne.
Les pionniers du Cloud : les devs
Du côté des DSI et des infogéreurs, le Cloud n’a pas rencontré un franc succès, et à ce jour encore trop peu d’administrateurs l’utilisent. Les premières consommations de Cloud sont venues de la part d’une population jusqu’alors très éloignée du monde des ops : les devs.
Les développeurs furent les premiers utilisateurs du Cloud. En quelques secondes, ils avaient à disposition des environnements pour faire fonctionner leurs projets, plus d’investissement initial, des coûts extrêmement réduits et surtout, plus d’ops avec qui débattre de la meilleure version d’Apache ou de Tomcat. Plus « d’install’ machine », plus d’attente. Tout est là et surtout : tout est code !
Infrastructure as code = architecture polymorphe et « vivante »
L’Infrastructure as code ou l’art de fabriquer, de lancer et de faire vivre une infrastructure avec le moins d’intervention humaine. L’enchaînement des lignes de commandes permet de scénariser le fonctionnement d’une production, les outils permettent d’anticiper des incidents, des montées en charge et résout les problèmes en temps réel. Tout ce qui justifiait une organisation complexe constituée d’experts divers et variés pour opérer le « Run » est désormais désuète car inutile.
Autrefois, les contrats d’infogérance étaient constitués comme tels : pour une somme de 100 dépensés sur 12 mois, 20 étaient dédiés au montage de l’infrastructure (Build ) et 80 pour son entretien courant (Run). Pour un infogéreur, la marge se dégage durant cette phase de Run, le Build servant souvent de levier de négociation pour « appâter le chaland ». Le Build est souvent déficitaire, mais qu’importe. La marge c’est le temps. Plus un client reste, plus les marges s’accroissent.
L’infogérance est morte, vive le Cloud building !
Le paradigme du Cloud démembre ce modèle économique. L’automatisation entraîne des phases de Build conséquentes. Il faut penser à tout, anticiper, documenter, l’objectif étant ici de réduire la quantité d’intervention durant la phase de Run.
De nouveaux acteurs, souvent très jeunes, ont investi le terrain. Ayant compris l’importance du métier de Cloud Builder, ils opèrent cette transformation en proposant des contrats à très haute valeur ajoutée, incluant une plus grande flexibilité, une meilleure gestion du risque et surtout une production toujours disponible. Les entreprises elles mêmes suspendent leurs contrats d’infogérance et internalisent le management de leurs infrastructures.
Si l’infogérance est morte, les infogéreurs ne le sont pas et ça n’est pas souhaitable. Accompagner ses équipes à ce changement, faire comprendre les bénéfices d’une infrastructure as code, reconstruire un business model calqué sur l’inversion des phases de Build et de Run : tel est le défi à relever ces prochaines années.