Par Philippe Magne
Avec la crise économique majeure que nous nous apprêtons à vivre pour au moins les douze mois à venir, il est grand temps de reconsidérer sous un autre œil le patrimoine existant.
De très nombreuses entreprises sont encore convaincues qu’il est nécessaire de se séparer de leur plateforme legacy et avec elle bien sûr les applications qui tournent dessus. En tant que dirigeant d’entreprise, on a tous rêvé à un moment ou à un autre d’avoir un système d’informations à la pointe de la technologie, capable de s’adapter très rapidement aux besoins de l’entreprise et, en cela, vecteur majeur de sa performance. Bon nombre d’entreprises qui en avaient les moyens financiers, se sont lancées dans des chantiers titanesques. Certaines, au prix de transformations importantes de leur organisation, ont réussi à franchir le Rubicon au bout d’un nombre d’années et d’efforts importants. D’autres ont décidé d’arrêter en cours de route, se rendant compte entre autres que les investissements avaient été largement sous-estimés initialement et qu’elles mettaient en péril tout leur business.
La crise économique va naturellement obliger à reconsidérer ces chantiers pharaoniques. Ne devrait-t-on pas plutôt aller de l’avant en réinvestissant sur l’existant plutôt que de tout remplacer ? En ces temps incertains, la question mérite à l’évidence d’être posée, mais pour être parfaitement à l’aise avec ce choix stratégique, encore faut-il faire un petit travail d’introspection en se posant la question en toute sincérité : qu’est-ce qui a fait que l’on était convaincu jusqu’à présent qu’il fallait tout remplacer ? Outre un écosystème qui pousse naturellement à la surconsommation, on se rend compte qu’il s’agit la plupart du temps d’une quasi méconnaissance de cet existant qui débouche fatalement sur des idées préconçues. Quand on sait que les idées préconçues sont la principale cause de nos erreurs stratégiques, il est grand temps de tout poser sur la table afin d’y voir un peu plus clair et ne pas prendre de décisions « émotionnelles ».
Voici la liste des idées préconçues que nous avons le plus souvent rencontrées.
Sommaire
- « Les systèmes legacy ne peuvent pas s’adapter à la transformation digitale »
- « La pérennité des systèmes legacy n’est pas assurée par le constructeur »
- « Le TCO (Total Cost of Ownership) des systèmes legacy est très élevé »
- « Les systèmes legacy ne sont pas adaptés au Cloud »
- « Les ressources compétentes sont devenues très rares »
- « Les jeunes générations sont rebutées par ces systèmes »
- « Il est impossible de convertir les équipes existantes aux nouvelles façons de travailler »
- « L’architecture monolithique des applications legacy est un frein à leur évolution »
- « Personne n’ose toucher ces gros mammouths de 20 ou 30 000 lignes de code »
- « Les application legacy ne repondent plus aux besoins des utilisateurs »
1. « Les systèmes legacy ne peuvent pas s’adapter à la transformation digitale »
Faux, ça aurait été vrai si ces systèmes n’avaient pas évolué, qu’ils soient restés enfermé dans leur monde clos, totalement coupé du reste du monde. A ce jour, c’est loin d’être le cas. Nous consommons tous les jours des services sur le web ou sur nos smartphones qui sont connectés à des systèmes legacy. Un exemple ? votre banque ! Il est possible de mettre un système legacy sur le Cloud, il est possible de développer des interfaces web, il est possible de développer des web-services. Technologiquement, ces systèmes sont devenus parfaitement « normaux » et peuvent naturellement s’inscrire dans une stratégie de transformation digitale. Je mettrais de côté ici tous les avantages en leur faveur, mais il est bon tout de même de les résumer ici : sécurité, fiabilité, scalabilité. Le maximum a été fait pour les banaliser et faire en sorte qu’ils s’insèrent naturellement dans le système d’information global. Certes, toutes les spécificités ne peuvent être gommées puisque ce sont de ces spécificités qu’ils tirent leurs avantages.
2. « La pérennité des systèmes legacy n’est pas assurée par le constructeur »
Faux : Même s’il ne reste à présent quasi qu’un seul et unique constructeur dans cette catégorie, ce n’est pas demain la veille qu’IBM va abandonner ces systèmes qui font tourner 70% du business dans le monde. Les nouvelles versions d’OS continuent de sortir environ tous les deux ans avec des innovations conséquentes. Les roadmaps affichent des perspectives pour les vingt ans qui viennent.
Mais n’oublions pas non plus ce qui est peut-être le plus important : ces systèmes sont une importante source de revenus pour IBM et la clientèle reste fidèle. Ces deux points font que l’on a à faire à un « business model » parfaitement stable et pérenne.
3. « Le TCO (Total Cost of Ownership) des systèmes legacy est très élevé »
Vrai et Faux : c’est forcément vrai dans le monde du Mainframe Z/OS puisque tous les clients essayent, tant bien que mal, de réduire leur consommation de « Mips ». C’est par contre totalement faux dans le monde IBM i, pour deux raisons essentiellement :
La première, c’est que cela fait plus de 25 ans que les applications IBM i tournent sur des machines « Power », celles-là même qui hébergent les applications Unix(AIX) et Linux. Les économies d’échelle ont été réalisées depuis belle lurette par IBM. Le coût d’acquisition est identique pour ces trois OS.
La deuxième, c’est que, dû à son architecture qui combine de manière intégrée l’OS et le gestionnaire de bases de données, l’administration de cette plateforme est un quasi jeu d’enfants. J’ai coutume de l’appeler « l’OS for Dummies », excusez du peu. On voit même dans certaines PME, le service comptable faire office d’administrateur système…
4. « Les systèmes legacy ne sont pas adaptés au Cloud »
Faux : On pouvait penser cela encore jusqu’à l’année dernière car il n’y avait pas d’offre de Cloud public. Seul un classique hébergement était proposé. Aujourd’hui, trois entreprises sont à même de proposer du Cloud avec consommation à l’heure comme les AWS, Azure ou autre : Skytap, IBM et même Google.
Le mouvement vers le Cloud va continuer d’être massif dans les mois et les années qui viennent. Aucune raison que les systèmes legacy ne soient pas embarqués dans ce mouvement.
5. « Les ressources compétentes sont devenues très rares »
Vrai et Faux : Il est vrai que les ressources expérimentées se font de plus en plus rares sur le marché. La courbe des départs à la retraite ne faisant qu’augmenter, les choses ne vont certainement pas s’améliorer au fil du temps. Mais voilà le plus bel exemple d’idées préconçues qui ont la dent dure et qui sont le principal argument des directions générales pour « tout balancer ». Tout cela repose sur deux idées fausses :
Il est impossible de former de jeunes développeurs à ces systèmes,
Les équipes existantes n’ont pas d’appétit pour changer leur façon de travailler.
Ces deux points sont traités ci-après. En substance, ce que l’on peut dire, c’est que de nombreuses grandes entreprises ont déjà pris le parti de continuer à investir dans leurs plateformes legacy et que c’est ce mouvement qui retournera cette situation de rareté des ressources compétentes dans les années à venir.
6. « Les jeunes générations sont rebutées par ces systèmes »
Faux : ça, c’est une vraie idée préconçue. Tous ceux qui ont essayé peuvent témoigner du contraire. En fait, les jeunes ne sont pas rebutés par ces systèmes. Leur retour d’expérience est même très positif. Par contre, ils ont des exigences en termes de façon de travailler. C’est en cela que le mouvement DevOps est aussi stratégique. Pour un jeune développeur, développer en Cobol, RPG, Java, Python, .Net est accessoire. Il passe allègrement d’un langage à l’autre. Par contre, son environnement de travail est primordial. Il doit être à base des outils qu’il connait déjà, comme Git, par exemple, pour gérer son code source. Il doit être moderne avec des méthodes de travail Agile car il veut avant tout produire vite et avec le moins de contraintes possibles.
7. « Il est impossible de convertir les équipes existantes aux nouvelles façons de travailler »
Faux. Cela peut être difficile et prendre du temps, certes, mais ce n’est pas impossible. On peut être d’ailleurs fort agréablement surpris. Ce qu’ont fait la plupart des entreprises, c’est qu’elles ont exclu dans un premier temps leurs équipes legacy de tous les grands mouvements qu’elles opéraient en termes de transformation digitale. Il faut dire qu’elles avaient déjà fort à faire et que les systèmes legacy étaient réputés « stabilisés » et avec un niveau d’industrialisation fort. Cette situation a créé des frustrations et un phénomène naturel de silo, peu propice à l‘efficacité globale pour l’entreprise. A présent, le legacy est quasi systématiquement embarqué dans les réflexions, que ce soit en matière d’infrastructure, d’architecture, d’outillage ou de sécurité. Il n’est plus le parent pauvre de cette grande mutation.
8. « L’architecture monolithique des applications legacy est un frein à leur évolution »
Vrai. C’est l’image du plat de spaghetti : quand on tire quelque chose, il y a tout qui vient. On sait maintenant que pour qu’un code soit le plus maintenable possible, il faut qu’il soit le plus modulaire possible. Or, ces principes n’étaient pas la règle il y a 20 ou 30 ans. Dans un tel contexte, il est très difficile de paralléliser les équipes de développement. Seule la définition de nouveaux standards d’architecture et la transformation progressive des applications permet de sortir de cette ornière. A défaut, il faut réduire au maximum le taux de changement (si c’est possible).
9. « Personne n’ose toucher ces gros mammouths de 20 ou 30 000 lignes de code »
Vrai. Vu leur criticité et vu leur complexité, force est de constater que lorsqu’on débarque dans une entreprise et que l’on a à faire la moindre adaptation, on retient son souffle. La seule réponse ici, c’est de s’outiller. Tout ce qui est de nature à faciliter la compréhension d’un code existant doit être systématisé. Les gains de temps qui en découlent sont particulièrement conséquents. Une autre catégorie d’outillage devient également essentielle : les outils de contrôle du code et du respect des règles établies. D’autant que ces outils débordent maintenant sur le contrôle de la vulnérabilité du code. Ils couvrent donc simultanément les aspects qualité et sécurité.
10. « Les application legacy ne repondent plus aux besoins des utilisateurs »
Ca c’est souvent vrai, mais la faute en revient à la direction stratégique des années passées. Persuadées que ces systèmes allaient mourir de leur belle mort tôt ou tard, le niveau d’investissement a souvent été réduit à sa plus simple expression, d’où une certaine obsolescence. Si ces applications avaient reçu un niveau d’investissement régulier, elles ne seraient pas obsolètes ! D’ailleurs, les entreprises qui ont suivi ce chemin de faire évoluer leur patrimoine à la fois sur le plan fonctionnel, mais aussi technique, se retrouvent dans une situation bien plus confortable que les autres à aujourd’hui.
D’aucun ne pourrait trouver dans cet article qu’un basique plaidoyer pour conserver les systèmes legacy, tout à fait logique, à première vue, puisqu’Arcad tire une grosse partie de sa légitimité sur le marché de la plateforme legacy IBM i, ou plutôt devrais-je dire ici AS/400 pour renforcer ce côté legacy. A ceux-là je dirais que notre mission est d’accompagner nos clients dans leur transformation digitale et que nos revenus dans et hors de cette plateforme sont pratiquement équilibrés. Notre vision n’est donc pas du tout partisane, mais bel et bien pragmatique.
Philippe Magne
Président Directeur Général, ARCAD Software
Philippe Magne est le PDG et le Fondateur du groupe ARCAD Software, un éditeur de logiciels international spécialisé dans les solutions multi-plateformes pour DevOps, la modernisation d’applications, l’automatisation des tests et le masquage des données. Il dirige l’entreprise pour produire une gamme de solutions complètes et intégrées, distribuées par IBM dans le monde entier. Philippe est un expert de la modernisation et est un conférencier reconnu dans les événements IBM.