Le secteur informatique vit dans l’ère des éditeurs de logiciels depuis au moins quinze ans. Cette ère a succédé à l’ère des constructeurs qui découlait de l’intégration verticale. L’intégration verticale était le modèle dominant pendant les années 70 et ce jusqu’au début des années 80. Ce modèle reposait sur une idée simple : le constructeur de votre choix était votre unique interlocuteur pour toute votre solution technique. Que vous choisissiez IBM, Bull, Digital ou HP, ce dernier vous offrait (façon de parler !) les machines, le réseau, le logiciel de base et les outils de développement, à vous d’en tirer le meilleur parti… L’offre de progiciels était alors quasi-inexistante sur grands systèmes et tous les utilisateurs étaient contraints de développer leurs propres applications. Ce modèle avait deux inconvénients. Tout d’abord, développer ses propres applications demande beaucoup de ressources. De plus, vous étiez complètement prisonnier du constructeur choisi initialement, le coût du changement étant trop important pour être vraiment envisageable…
C’est alors que sont apparus les éditeurs indépendants avec une promesse simple et percutante : nous pouvons à la fois vous éviter de réinventer la roue et vous libérer de l’emprise des constructeurs grâce aux systèmes ouverts. L’irruption du PC et de l’architecture client-serveur a achevé de faire voler en éclat le modèle de l’intégration verticale pour le plus grand bonheur de nouveaux intervenants comme Oracle, SAP et Microsoft. Ces derniers sont devenus rapidement les acteurs dominants de cette nouvelle ère. Au lieu de développer leurs applications « dans leur coin », les entreprises utilisent un progiciel commun générique qu’elles n’ont qu’à customiser. Lorsqu’un éditeur améliore un progiciel, tous ses clients en bénéficient.
Le cycle de vie des éditeurs perturbé par un intrus
Ce marché s’est progressivement structuré avec ses lois. Les éditeurs vivent, meurent, mutent sous nos yeux en respectant des règles quasiment systématiques. Au fil des évolutions technologiques, le même cycle semble se reproduire invariablement. Dans une première phase accompagnant l’arrivée d’une nouvelle technologie, des éditeurs visionnaires font leurs apparitions. Plus le marché s’avère porteur, plus les choses se gâtent pour ces « pures players ». Rapidement seules deux issues s’offrent à eux : pour les plus généralistes, l’espoir du rachat par un « gros » et pour les plus pointus, l’espoir de devenir la « Rolls » du marché réservée à une élite de clients. Une fois mature la technologie est alors, soit intégrée dans l’offre d’infrastructure globale des grands éditeurs (c’est toujours les mêmes qui gagnent à la fin …), soit disponible par briques spécialisées si on choisit une stratégie informatique de type « meilleur des mondes ». Et tout s’écoule dans un bien-être sûr … en attendant le prochain tournant technologique qui verra se reproduire le même schéma.
Prenons l’exemple des serveurs d’applications Java, marché qui a émergé vers 1995. La plupart des leaders de l’époque se trouvent aujourd’hui rachetés par les éditeurs historiques :
- – Sun acquiert NetDynamics en 1998 [ [ ]], suivi rapidement par le rachat d’une partie de NetScape (notamment le serveur d’applications NetScape Application Server) et de Forté … stratégie pour le moins confuse qui laissa le champs libre à IBM et BEA pour conquérir le marché des serveurs d’applications Java,
- BEA acquiert WebLogic en 1998 [ [ ]] pour donner aujourd’hui un des leaders du marché,
- Apple acquiert le serveur d’application WebObjects suite au rachat de Next en 1998 [ [ ]] …
- HP acquiert BlueStone en 2000 [ [ ]] pour le donner quelque mois plus tard, puis pour décider finalement d’abandonner son évolution,
- Novell acquiert SilverStream en 2002 [ [ ]] et le fournit en Open Source depuis peu,
- …
Restent seulement quelques spécialistes parmi lesquels Borland qui apporte son expertise dans la mise en œuvre des EJB et dans l’intégration de la chaîne modélisation / développement / administration.
Actuellement, c’est aux marchés (distincts malgré qu’ils soient souvent confondus à tord) de la gestion de contenu et des portails de rentrer dans cette phase de concentration … Alors un nouveau cycle ?
Pas si sûr … En effet, depuis 2 ans, un trouble-fête vient perturber cette mécanique bien huilée. Il s’agit du mouvement Open Source. Ce mouvement déstabilise l’ordre établi chez les éditeurs et nous en sommes qu’au début. En devenant une alternative crédible, il permet de mettre la pression sur les éditeurs qui doivent maintenant apporter une réelle valeur ajoutée. Finis les rachats marketing entre éditeurs. Il faut réellement créer de la valeur pour que les clients continuent à suivre. N’est-il d’ailleurs pas légitime de penser qu’Apache bénéficie aussi aux utilisateurs de IIS !
Si un éditeur veut survivre, il doit faire au moins aussi bien que l’Open Source soit en innovant technologiquement (Office 2003 serait-il aussi prometteur et ouvert que cela si Microsoft ne sentait la pression des suites bureautiques OpenOffice et autres StarOffice ?), soit en intégrant des fonctionnalités de plus en plus riches. Plus déstabilisant encore pour les éditeurs, l’Open Source devient une arme concurrentielle. Les éditeurs ayant compris la nouvelle donne vont de plus en plus utiliser l’Open Source contre leur concurrent. Prenez SAP qui progresse sur son cœur de métier, l’ERP. L’éditeur allemand n’hésite pas à donner SAP DB à la communauté MySQL[ [ ]] afin de renforcer les chances de cette base de données de devenir une alternative très sérieuse à Oracle … son concurrent ERP le plus menaçant. Quant à IBM, l’éditeur soutient Eclipse[ [ ]] afin de damer le pion à ses concurrents directs sur le marché Java, BEA et Sun. Côté éditeurs Java, on ne compte plus les appels du pied à l’intention de la communauté PHP[ [ ]]. Ils laissent espérer un mariage de la simplicité (PHP) et de la puissance d’intégration (Java) visant à étouffer dans l’œuf la stratégie .Net de Microsoft …
Vendeur de rêves …
Une seconde tendance fait vaciller le monde des éditeurs : la sacro-sainte notion de progiciel perd elle-même de plus en plus son sens. Après un pic historique où les entreprises s’étaient ruées sur les offres d’ERP afin de faire face à l’échéance de l’an 2000 et de l’Euro, la déception est de plus en plus criante face aux difficultés de mise en place des projets de type CRM … On leur reproche un taux d’échec important (le Gartner Group avancent des taux d’échecs de plus de 50 % !) lors de leur mise en place et de ne pas avoir donné les résultats promis une fois installés. Les progiciels permettant de simplifier le développement, l’informatique a en effet augmenté la complexité des projets en introduisant une dose de « spécifique » considérable … avec le souvent trop grand optimisme des éditeurs. A tel point que la customisation est devenue un projet à elle toute seule. Alors qu’avant une application pouvait fonctionner en autonome, elle doit maintenant communiquer avec le reste de l’entreprise.
Aujourd’hui, le constat est là : le modèle éditeur comporte son lot de difficultés pour ne pas dire de pièges : c’est au client d’assurer l’intégration technique (de plus en plus difficile face à la complexité croissante) et c’est au client d’assumer tous les risques de chaque opération avec une faible récompense en cas de succès (c’est normal que ça marche, après tout, on a payé pour cela !).
On fait clairement face à une nouvelle manifestation du syndrome du déploiement. C’est déjà la difficulté de déploiement des applications sur les postes clients qui avait sinon « tué » le client-serveur, au moins empêché sa généralisation à l’échelle de l’entreprise. On s’aperçoit aujourd’hui que le déploiement des nouveaux progiciels côté serveur se révèle être un frein tout aussi puissant …
D’ailleurs, le mouvement de consolidation des serveurs qu’on constate en entreprises (et qui fait penser au retour du mainframe !) participe au même élan de réduction de la complexité qui monte de plus en plus comme un cri du coeur ! De plus en plus souvent, la balance apparaît déséquilibrée, de plus en plus souvent, le jeu n’en vaut plus la chandelle et c’est sans doute pour cela que les clients se sont arrêtés d’acheter, de dépenser, d’investir …
Vers une mutation ?
Alors, si le modèle éditeur a ses limites, quelles technologies vont permettre de passer ce cap ?
Cette fois, il faut briser les contraintes techniques dans lesquelles les clients sont englués et qui n’apportent aucune valeur ajoutée. De la même façon qu’on a fini par comprendre qu’il n’était pas stratégique de développer toutes ses applications soi-même, on va finir par réaliser qu’il est de moins en moins pertinent d’héberger soi-même l’ensemble de ses serveurs. L’autre modèle qui pointe en alternative avec le « tout-à-la-maison » est appelé « l’informatique à la demande ». L’idée derrière « l’informatique à la demande » est connue : faire de l’informatique une commodité au même titre que l’électricité ou le téléphone. La promesse est de réduire radicalement la complexité des fonctionnements distribués et, par la même de baisser véritablement les coûts d’exploitation.
L’idée est simple mais sa mise en œuvre concrète va réclamer des avancées spectaculaires dans de nombreux domaines comme l’ « orchestration de services », le « grid computing » et « l’administration autonome » et pour ne citer que les plus importants. On sait que 40 à 80 % de la puissance de traitement des ordinateurs en service aujourd’hui reste inutilisée. La vocation du Grid Computing serait justement de permettre une meilleure utilisation de cette puissance de traitement en fonction des besoins tout comme l’électricité circule entre les réseaux des producteurs pour aller là où la demande est la plus forte. Mais la mise en œuvre de cette distribution de la capacité va de pair avec la distribution des traitements et là les choses se compliquent !
Encore faudra-t-il que l’industrie informatique dans son ensemble repose un peu plus sur un ensemble de standards. C’est ici que quelques acteurs du marché comme IBM font valoir leur engagement vis-à-vis de l’Open Source (Linux en tête de pont). Certaines puissances du marché ne sont pas encore d’accord pour s’aligner sur un standard unique, même si ce dernier n’appartient à aucun acteur. On risque de se retrouver comme à l’époque des débuts de l’électricité quand l’offre se partageait entre courant continu et courant alternatif. Le marché ne décolla qu’à partir du moment où le courant alternatif apparu comme le vainqueur de cette confrontation.
Mais si le Grid Computing adresse la partie déploiement, il reste un vide du côté de la customisation et de l’interopérabilité. Imaginez un ASP (Application Service Provider) qui veuille fournir des services de CRM. Le niveau de complexité actuel de ce type de logiciel est tel qu’il devrait installer et maintenir autant de versions de son application que de clients ! Autant dire que la chose n’est pas faisable. Le maillon manquant est une technologie qui permette de décrire complètement et de manière standard le fonctionnement d’une entreprise et des échanges entre ses applications. Si demain on pouvait définir la customisation d’un outil de CRM et les services qu’il « consomme » et qu’il fournit par, disons, un ensemble de fichiers XML, la faisabilité du CRM « à la demande » en serait grandement accrue.
Et si encore les obstacles n’étaient que de nature technique mais il faudra aussi compter avec la dimension sociale et même politique de ce tournant annoncé. En effet, il est probable qu’une bonne partie des responsables informatiques sera résistante à cette évolution et avec de bons arguments comme la sécurité ou la préservation de la confidentialité des données.
Donc, il est clair que le nouveau modèle ne va pas supplanter l’ancien en quelques mois mais les règles du jeu sont en train de changer … Reste à inventer pour les acteurs du marché une nouvelle proposition de valeur dans laquelle les standards et l’Open Source auront une place dépassant largement le cadre du marketing.