Le SaaS liquide est un mirage. L'avenir, c'est la sémantique.

En réaction à « Et si l'IA sauvait le SaaS ? »


J'ai recemment lu, dans une newsletter, un texte stimulant sur l'avenir du SaaS. La thèse : le logiciel va devenir « liquide », un socle métier solide sur lequel l'IA fabrique, à la volée, l'interface dont chaque utilisateur a besoin. Fini le prêt-à-porter, place au sur-mesure scalable. C'est séduisant. C'est aussi, je le crois, un piège.

Le vrai spectre, ce n'est pas l'apocalypse du SaaS. C'est la privatisation du chaos.

La question circule partout : si l'IA peut tout générer, pourquoi payer un abonnement ? Mais le danger réel est ailleurs. Si l'IA devient si bon marché que chacun peut fabriquer son soft et garder ses données chez soi, on ne supprime pas le SaaS, on le remplace par un archipel de solutions bricolées qui passent le premier test et s'effondrent en silence trois semaines plus tard.

Des bugs que personne ne voit. Des cas limites que personne ne teste. Des intégrations fragiles que personne ne maintient. Chaque entreprise se retrouverait à exploiter son propre logiciel sans les équipes pour en assurer la pérennité. C'est de la dette technique, sauf qu'au lieu d'être gérée par un éditeur, elle serait dispersée dans chaque organisation, invisible et cumulative.

Et la promesse de simplification cache l'inverse. Pour que l'IA produise quoi que ce soit d'utile dans un contexte métier, il faut empiler des couches supplémentaires : connecteurs, pipelines de données, garde-fous de sécurité, gouvernance, versioning. Le « SaaS liquide » ne supprime pas la plomberie. Il en rajoute, en la rendant invisible à l'utilisateur qui se croit libéré.

Le « chef d'orchestre » : une métaphore qui se retourne

L'auteur décrit l'avènement de l'IA comme pour chacun le passage « du musicien au chef d'orchestre. » L'image est parlante. Elle est aussi trompeuse.

En 1983, la psychologue Lisanne Bainbridge a formulé ce qu'elle appelait les « ironies de l'automatisation. » Son constat, forgé dans les salles de contrôle des centrales nucléaires, n'a pas pris une ride : plus on automatise, plus ce qui reste à faire pour l'humain est difficile. On élimine les tâches répétitives, et on laisse à l'opérateur un concentré de décisions ambiguës, mal outillées, à haut risque. L'humain n'est pas promu. Il hérite des restes, les morceaux que la machine n'a pas su absorber.

Le « chef d'orchestre » qui pilote Claude Code pour modifier son propre outil se retrouve dans exactement cette position : superviseur d'un système dont il ne voit pas les rouages, chargé de repérer des erreurs que la machine ne sait pas signaler.

Le « workslop », ou l'enfer du presque-bien

Des chercheurs de Stanford ont mis un mot sur un phénomène que beaucoup reconnaîtront : le « workslop. » C'est ce livrable généré par l'IA qui ressemble à du travail fini, propre, structuré, confiant, mais qui ne résiste pas à un examen sérieux. Le piège, c'est précisément son apparence de qualité : il ne signale pas ses lacunes, et c'est celui qui le reçoit qui paie le prix cognitif de les débusquer.

Appliqué au SaaS liquide, le problème saute aux yeux. Des interfaces qui auront l'air de marcher. Des dashboards qui sembleront justes. Des workflows qui paraîtront complets. L'utilisateur, devenu contrôleur qualité à temps plein, devra maintenir un niveau de vigilance que notre cerveau n'est pas câblé pour soutenir longtemps.

Le BCG a documenté l'aboutissement de ce processus dans une étude de mars 2026 : le « AI brain fry. » Les employés qui supervisent intensivement des outils d'IA rapportent +14 % d'effort mental, +12 % de fatigue, +19 % de surcharge informationnelle et commettent 39 % d'erreurs graves en plus. À l'échelle d'un logiciel métier régénéré chaque jour, le tableau est vertigineux.

La friction n'était pas le problème. C'était le garde-fou.

L'auteur salue la fin de la « merdification » du logiciel, c'est à dire l'empilement de fonctionnalités inutiles qui pollue l'expérience de 98 % des utilisateurs. Le diagnostic est juste. Mais la solution contient sa propre ironie : supprimer les frictions du logiciel figé, c'est aussi supprimer ce qui cadençait le travail.

La page blanche, le temps de recherche, l'effort de structuration, tout cela fonctionnait comme un régulateur naturel. Une étude de Berkeley a suivi deux cents salariés pendant huit mois après l'adoption d'outils d'IA : le volume de travail n'a pas diminué. Il a gonflé, dans toutes les fonctions étudiées, parce que l'IA rendait chaque nouvelle tâche tentante à entreprendre.

On connaît la loi de Parkinson : le travail s'étend pour occuper le temps disponible. Son corollaire IA est plus sournois : le travail s'étend pour occuper la capacité disponible. Un SaaS où tout se modifie en un prompt n'émancipe pas l'utilisateur, il l'aspire dans une spirale de micro-ajustements sans fin.

Ce qui peut nous sauver : la sémantique, pas la génération

La vraie opportunité est presque à l'opposé de la thèse du SaaS liquide.

L'industrie du logiciel connaît déjà le modèle « headless » : des CRM, des CMS, des outils de e-commerce qui tournent sans interface propre, en exposant des API sur lesquelles d'autres couches viennent se brancher. L'IA générative prolonge cette logique, elle pose une « tête » conversationnelle sur des outils existants. Elle ne remplace pas le logiciel métier. Elle s'y superpose. Et cette superposition dépend entièrement du socle en dessous.

Or le vrai problème de ce socle, ce n'est pas son interface. C'est son absence de compréhension. Un CRM ne sait pas ce qu'est un client. Un outil de gestion de projet ne distingue pas une dépendance critique d'une dépendance mineure. Un ERP confond un retard logistique et un retard stratégique.

L'IA devrait servir à donner du sens aux données, identifier les anomalies, proposer des arbitrages, comprendre le contexte, et non pas à redistribuer les boutons sur l'écran. Générer des interfaces, c'est multiplier la surface d'erreur. Enrichir la couche sémantique, c'est réduire la charge cognitive au lieu de l'alourdir.

La facture cachée

Un angle que le discours ambiant esquive : le coût réel. Intégrer de l'IA générative, c'est un surcoût en tokens, en infrastructure, en profils à recruter, en temps d'intégration. C'est aussi une dépendance accrue à des fournisseurs propriétaires dont la grille tarifaire évolue au rythme de leurs tours de table.

On répète que « le coût marginal du code tend vers zéro. » C'est vrai pour la production. Pas pour la maintenance, la sécurité, la conformité, la fiabilité dans le temps. Un logiciel gratuit à écrire mais qu'il faut reconstruire chaque trimestre coûte infiniment plus cher qu'un SaaS à 50 € par mois.

Et les gains concrets ? Ils restent à démontrer. Les données disponibles pointent dans la direction inverse : plus de tâches, plus de supervision, plus de fatigue, sans bénéfice net évident.

L'ironie finale

Bainbridge terminait son article de 1983 sur un paradoxe redoutable : les systèmes automatisés les plus fiables, ceux qui tournent le plus longtemps sans accroc, sont ceux qui érodent le plus les compétences humaines de secours. Le jour où le système tombe, l'opérateur qui n'a plus pratiqué est le moins armé pour intervenir.

L'expérience décrite par l'auteur, un utilisateur avancé qui modifie son propre outil via Claude Code, incarne ce paradoxe. Ça fonctionne tant que tout va bien. Le jour où ça casse, et ça cassera, parce que le logiciel casse toujours, qui comprendra le système assez pour le réparer ?

Le prêt-à-porter du SaaS a ses défauts. Mais le sur-mesure IA n'est pas de la haute couture. C'est la fast fashion du logiciel : vite produit, vite obsolète, et dont le vrai coût ne se révèle qu'après coup.

La vraie question n'est pas technologique

Au fond, le débat sur le SaaS liquide passe à côté de l'essentiel. Le problème des organisations, ce n'est pas leur logiciel. C'est la manière dont elles travaillent.

Régénérer les outils par l'IA, c'est poser un pansement technologique sur des dysfonctionnements humains : des processus absurdes, des validations en cascade sans valeur ajoutée, des réunions dont personne ne sort avec une décision. L'IA est un levier parmi d'autres, et probablement pas le plus décisif, pour améliorer l'efficacité et redonner du sens au travail.

Le vrai saut de productivité ne viendra pas d'un outil qui régénère ses interfaces à la demande. Il viendra d'organisations qui se seront demandé pourquoi elles font ce qu'elles font, avant de chercher comment l'automatiser.


Le SaaS n'a pas besoin de devenir liquide. Il a besoin de devenir intelligent. Et les organisations n'ont pas besoin de meilleurs outils, elles ont besoin de meilleurs processus.


Sources: