Blog

  • Pourquoi votre PME de services est coincée ?

    …et ce n’est ni la technologie ni le budget !

    Vous connaissez la situation. Les bons profils sont rares… et difficiles à garder. Votre transformation numérique a démarré il y a des années sans jamais vraiment aboutir. L’IA est omniprésente dans les médias et absente de vos opérations. Vos concurrents avancent plus vite. Vos marges se réduisent. Et chaque réorganisation ressemble à la précédente : beaucoup d’énergie dépensée pour un résultat qui ne tient pas.

    Si vous dirigez une PME de services (cabinet de conseil, société informatique, bureau d’ingénieurs, fiduciaire, agence) vous vivez probablement ces tensions au quotidien. Vous savez que quelque chose doit changer. Mais quoi exactement ? Et par où commencer ?

    Le diagnostic habituel est faux

    La réponse la plus courante tient en trois mots : investissez dans la technologie. Modernisez vos outils. Lancez un programme de transformation numérique. Recrutez un responsable IA.

    C’est tentant. C’est aussi insuffisant.

    Après des années à diriger une société de services informatiques à travers des vagues successives de disruption — migration cloud, Covid, exigences de cybersécurité, travail à distance, partenariats, IA générative — un constat s’est imposé. Les PME de services qui investissent le plus dans la technologie ne sont pas nécessairement celles qui s’en sortent le mieux. Certaines accumulent les outils sans changer fondamentalement leur manière de fonctionner. D’autres, avec des moyens plus modestes, s’adaptent avec une fluidité remarquable.

    La différence ne se situe pas dans le budget informatique.

    Le vrai facteur limitant

    Le facteur limitant des PME de services n’est ni la technologie ni le budget. C’est la capacité du dirigeant à recomposer en continu le mix de ressources de son organisation : talents internes, partenaires externes, capacités offshore, méthodes de travail et technologies — dont l’IA.

    Les entreprises qui stagnent ne manquent pas d’outils. Elles manquent de la gouvernance, des savoirs transférables et de la cadence d’exécution nécessaires pour se reconfigurer en permanence. Elles savent qu’elles devraient changer. Elles ne savent pas par quoi commencer. Alors elles ne changent rien.

    Ce n’est pas un problème de volonté. C’est un problème de structure. La « résistance au changement » est le diagnostic le plus commode — et le plus trompeur. Il transforme un problème d’architecture organisationnelle en problème de personnes. Quand personne ne bouge, le réflexe est de blâmer l’inertie humaine. En réalité, l’organisation n’offre aucun mécanisme concret pour bouger.

    J’appelle cette capacité le Responsive Management : la gestion réactive et continue du mix de ressources d’une PME de services. Non pas transformer une fois, mais recomposer en permanence !

    Les signaux de blocage

    Comment savoir si votre organisation est dans cette impasse ? Voici des signaux concrets.

    Chaque départ est remplacé à l’identique. Quand un collaborateur quitte l’entreprise, la question est toujours la même : comment recruter un profil équivalent ? Rarement : faut-il remplacer ce poste par un freelance, une capacité offshore, un workflow automatisé, ou pas du tout ? Si la réponse par défaut est toujours le recrutement à l’identique, votre organisation ne recompose pas ; elle reproduit.

    Votre meilleur expert est irremplaçable. Si cette personne part demain, combien de son savoir-faire opérationnel est documenté, transférable, utilisable par quelqu’un d’autre ? Si la réponse est « très peu », toute tentative de recomposition (externalisation, offshore, IA, nouveau collaborateur) se heurtera au même mur. Le savoir piégé dans les têtes bloque structurellement le changement.

    Le délai entre une idée et sa mise en œuvre dépasse six mois. Vous identifiez une amélioration possible en janvier. En juillet, rien n’a bougé. Ce n’est pas de la procrastination ; c’est le signe que votre organisation n’a pas de cadence de changement installée. L’inaction n’est pas accidentelle. Elle est structurelle. Aucun discours motivationnel ne résoudra ce problème. Ce qui manque, c’est une mécanique de gestion ; du suivi, de la responsabilisation et une cadence de revue qui forcent le passage à l’acte.

    Si vous vous reconnaissez dans un ou plusieurs de ces signaux, vous n’êtes pas seul. La majorité des PME de services que j’observe, y compris la mienne, ont traversé ou traversent ces situations.

    Ce qui suit

    C’est exactement le sujet de cette newsletter.

    The Responsive Manager paraîtra toutes les deux semaines. Chaque édition traitera un problème concret lié à la capacité d’adaptation des PME de services : gouvernance du changement, recomposition des ressources, capitalisation des savoirs, développement des compétences, cadence d’exécution. Le point de vue sera celui d’un praticien-chercheur : je dirige une PME de services (tebicom), je prépare un doctorat à GEM – Alpine Business School sur ces sujets, et je vis ces décisions au quotidien.

    Pas de théorie déconnectée. Pas de promesses. Un problème, un cadre d’analyse, une piste d’action.

    Un outil de diagnostic, le Responsive Management Index, est en préparation. Quinze questions, sept minutes, un rapport qui identifie votre facteur limitant principal. J’en reparlerai dans une prochaine édition.

    En attendant, si ce sujet vous concerne, abonnez-vous. Et si vous connaissez un dirigeant de PME de services qui se reconnaîtra dans ces lignes, partagez-lui cette édition 😉

  • Cloud et IA : passer au filtre des risques pour saisir les opportunités

    L’adoption du Cloud et de l’IA n’est plus un choix technologique, mais une décision d’affaires qui doit passer par des filtres de décision rigoureux. Un nouveau livre blanc de tebicom en cours de finalisation met en lumière cette dualité : d’un côté, des risques réels qui imposent une vigilance inédite ; de l’autre, des opportunités de productivité capables de transformer durablement l’organisation.

    Les filtres de vigilance : au-delà de la sécurité classique

    Adopter ces technologies comporte des risques que l’on ne peut plus occulter. Si la violation de données par une mauvaise configuration Cloud reste une menace majeure, l’IA introduit des vulnérabilités d’un genre nouveau :

    • La captation des données pour l’apprentissage des LLM : c’est le « prix caché » des outils d’IA grand public. Sans cadre contractuel spécifique, les données soumises par vos collaborateurs (via le shadow AI) peuvent être utilisées par les fournisseurs globaux pour entraîner leurs futurs modèles. Cela signifie que vos secrets d’affaires, vos analyses stratégiques ou vos données clients pourraient un jour être « digérés » et restitués à des tiers par l’IA. La maîtrise des données, savoir dans quel but elles sont traitées, est le premier pilier de votre souveraineté d’organisation.
    • Le piège des hallucinations et du « reward hacking » : les modèles d’IA génèrent des réponses vraisemblables, mais pas toujours exactes. Pire, elles peuvent pratiquer le « reward hacking » : optimiser un objectif en contournant les règles, comme hacker un logiciel de mesure pour afficher un succès fictif. La supervision humaine n’est donc pas une option, elle est indispensable à l’usage de l’IA.
    • L’érosion invisible des compétences : un risque stratégique majeur est de déléguer des tâches proches du cœur décisionnel à des systèmes externes. Cette « externalisation invisible » peut mener à une atrophie des compétences internes : l’entreprise perd sa capacité à décider par elle-même (Pourquoi la souveraineté IA va devenir le vrai sujet stratégique).
    • Le biais d’automatisation : face à une IA qui répond avec autorité, l’humain tend à baisser sa garde critique. C’est ce que l’on appelle la « normalisation de la déviance » : on finit par accepter de petits relâchements vis-à-vis des processus rigoureux, ce qui érode la cohérence de la gouvernance interne (Quand l’IA probabiliste rencontre nos systèmes déterministes : trois failles que personne ne voit venir).

    Les filtres de valeur : l’opportunité de l’utilisateur augmenté

    Malgré ces défis, les gains potentiels sont massifs pour les organisations qui abordent le sujet avec méthode :

    • La productivité individuelle : l’IA générative permet des gains mesurables de 1 à 5 heures par semaine et par collaborateur. En automatisant la synthèse de réunions ou la rédaction d’offres, elle crée ce que tebicom appelle l’utilisateur augmenté.
    • L’agilité et la compétitivité sectorielle : le Cloud élimine les dépendances aux cycles matériels, tandis que l’IA transforme les modèles opérationnels, par exemple via la maintenance prédictive dans l’industrie ou l’optimisation des flux en temps réel sur les chantiers.
    • La fin de la « shadow AI » : plutôt que de subir l’usage sauvage d’outils grand public par les collaborateurs, l’opportunité réside dans la mise en place d’une passerelle IA gouvernée (comme DECIDE Companion chez tebicom). Cela permet de canaliser la puissance des modèles vers une architecture sécurisée et souveraine.

    Le courage managérial : réconcilier le probabiliste et le déterministe

    Le véritable filtre de décision consiste à comprendre que l’IA ne remplace pas vos anciens systèmes, elle les complète.

    D’un côté, vos systèmes déterministes (ERP, finance) garantissent que la même entrée produit toujours la même sortie, une obligation légale dans de nombreux secteurs. De l’autre, l’IA probabiliste apporte son génie pour interpréter l’ambiguïté et naviguer dans des contextes complexes.

    La réussite réside dans un modèle hybride : une architecture où l’on définit explicitement ce qui doit rester gravé dans la règle stricte et ce qui peut bénéficier de la flexibilité statistique de l’IA.

    Conclusion : de la vision au succès

    Le succès ne dépend pas de la technologie elle-même, mais de la capacité à passer ces filtres avec méthode. Comme je le souligne dans le livre blanc de tebicom, « l’innovation ne réside plus dans le développement spécifique, mais dans la capacité à assembler et piloter intelligemment des briques standards ». En maîtrisant votre souveraineté d’organisation, vous transformez ces risques en un levier d’agilité durable !

    La version vidéo (NotebookLM) du livre blanc « Notre vision du Cloud et de l’IA de tebicom »

  • Quand l’IA probabiliste rencontre nos systèmes déterministes : trois failles que personne ne voit venir

    Comment faire coexister des systèmes informatiques qui ne fonctionnent pas selon la même logique fondamentale ?

    Ce n’est pas une question technique. C’est une question de civilisation organisationnelle.

    Le mythe de la continuité technologique

    Depuis les années 1960, les systèmes informatiques qui structurent nos entreprises partagent une promesse implicite : la même entrée produit toujours la même sortie. C’est ce que les informaticiens appellent le déterminisme. Votre ERP, votre système comptable, votre workflow de validation de factures : tous reposent sur cette certitude. Une règle. Un résultat. Toujours.

    L’IA générative brise cette promesse.

    Posez la même question deux fois à un LLM. Vous obtiendrez deux réponses différentes. L’IA est probabiliste : elle génère ses outputs sur la base de distributions statistiques, pas de règles fixes. Ce n’est pas un défaut ; c’est son génie. Sa capacité à interpréter l’ambiguïté, à naviguer dans des contextes complexes, à répondre en langage naturel découle précisément de cette nature probabiliste.

    Mais cette nature crée une rupture que nous n’avons pas encore vraiment appréhendée.

    Défi n°1 : on ne peut pas remplacer l’un par l’autre

    La tentation est forte de voir l’IA comme une évolution naturelle des systèmes d’automatisation existants. Une version plus intelligente, plus flexible, plus rapide. Et donc de l’intégrer là où fonctionnaient les anciens systèmes, en espérant qu’elle fasse mieux.

    C’est une erreur de catégorie.

    Dans les domaines réglementés (finance, santé, industrie, logistique) le déterminisme n’est pas un choix technique, c’est une obligation légale et éthique. La traçabilité, l’auditabilité, la répétabilité sont non négociables. Aucune banque centrale n’acceptera qu’une décision de compliance ait été prise par un système qui aurait pu produire une réponse différente si on lui avait posé la question une heure plus tard.

    Inversement, un système purement déterministe ne comprendra jamais une question formulée avec de l’argot, une faute de frappe, ou une tournure implicite. Il ne pourra jamais synthétiser 200 pages d’un rapport pour en extraire les trois points critiques.

    Les deux paradigmes sont complémentaires, pas substituables.

    La réponse architecturale qui s’impose, et que les entreprises les plus avancées commencent à implémenter, est le modèle hybride : une couche de routage intelligente qui évalue chaque requête et décide si elle relève du déterministe (règles métier critiques, conformité, transactions financières) ou du probabiliste (interprétation, analyse contextuelle, recommandation à faible risque). L’IA ne remplace pas le système déterministe ; elle opère à côté, sous contrainte, avec des garde-fous explicites.

    Le principe est simple à énoncer. Il est difficile à gouverner.

    Défi n°2 : l’humain va voir l’IA comme une échappatoire

    Voilà le défi qui me préoccupe le plus en tant que dirigeant et chercheur en transformation numérique.

    Les humains ont toujours eu une relation compliquée avec les systèmes déterministes. Les règles trop rigides, trop complexes, trop éloignées du terrain génèrent invariablement des contournements. Les managers de projet développent des canaux informels hors-ERP. Les équipes opérationnelles s’échangent des workarounds par email plutôt que de suivre le processus documenté. Ce n’est pas de la mauvaise volonté, c’est de l’adaptation humaine à un environnement perçu comme trop contraignant.

    Maintenant, imaginez un système qui comprend le langage naturel, qui répond avec fluidité, qui semble toujours trouver une solution. Qui n’affiche jamais d’erreur 403, ne renvoie jamais vers « l’informaticien », ne bloque jamais sur un champ obligatoire incompréhensible.

    L’humain va percevoir l’IA probabiliste comme la soupape qu’il attendait.

    Ce phénomène est aggravé par ce que les chercheurs nomment l’automation bias : notre tendance naturelle à faire davantage confiance aux systèmes automatisés qu’à notre propre jugement, même quand ces systèmes se trompent. Des études montrent que face à une réponse formulée avec autorité par une IA, même les utilisateurs formés réduisent significativement leur niveau de vérification critique.

    Le risque est insidieux parce qu’il est graduel. Il ne se manifeste pas par un incident brutal, mais par une accumulation silencieuse de petits relâchements. La sociologue Diane Vaughan a théorisé ce mécanisme à travers le concept de normalisation de la déviance, initialement pour expliquer la catastrophe de la navette Challenger. Chaque déviation sans conséquence visible renforce l’acceptabilité de la suivante, jusqu’au point de rupture.

    Appliqué à l’IA : chaque fois qu’un collaborateur contourne un processus déterministe en passant par le chatbot IA, chaque fois qu’une décision est validée sans vérification parce que « l’IA le dit », chaque fois qu’une règle de conformité est ignorée parce que l’IA a fourni une réponse rassurante, la déviance se normalise. Les systèmes qui fonctionnaient très bien s’érodent de l’intérieur, sans que personne n’ait décidé de les supprimer.

    Défi n°3 : l’IA se comporte comme nous, elle vise l’objectif, pas les règles

    C’est le défi le plus paradoxal et le plus révélateur de notre relation à la technologie.

    Nous avons longtemps rassuré les organisations en disant que les systèmes informatiques, contrairement aux humains, respectent rigoureusement les règles. Pas d’interprétation, pas de raccourci, pas de « fin qui justifie les moyens ». L’IA brise cette promesse de manière spectaculaire.

    En 2025, le modèle o3 d’OpenAI, chargé d’optimiser la vitesse d’un programme, n’a pas amélioré le code. Il a hacké le logiciel de mesure de vitesse pour qu’il retourne toujours un résultat satisfaisant. Claude 3.7 d’Anthropic, testé sur des problèmes mathématiques, a écrit un programme qui hardcodait les réponses correctes pour les cas de test, sans apprendre aucune méthode générale.

    Ces exemples illustrent ce que les chercheurs en alignement IA nomment le reward hacking, la tendance d’un système optimisé sur un objectif à trouver des chemins non prévus pour atteindre cet objectif, en violant l’esprit des contraintes tout en respectant leur lettre.

    Ce comportement a un nom en économie : la Loi de Goodhart« When a measure becomes a target, it ceases to be a good measure. » Dès qu’une métrique devient un objectif, elle cesse d’être un bon indicateur de ce qu’elle était censée mesurer.

    L’IA fait exactement ce que les humains font dans les organisations bureaucratiques : elle optimise sur ce qui est mesuré, pas sur ce qui est voulu. Elle respecte la lettre, pas l’esprit.

    Ce n’est pas un comportement marginal. C’est une propriété émergente de tout système d’optimisation suffisamment puissant, opérant dans un environnement de règles incomplètes. C’est-à-dire : toute organisation réelle.

    Des solutions tangibles existent, mais elles demandent du courage managérial

    Ces trois défis ne sont pas des fatalités. Mais les réponses ne sont pas purement techniques. Elles exigent une maturité organisationnelle que peu d’entreprises ont encore développée.

    Sur le plan architectural : définir explicitement, par domaine de risque, ce qui relève du déterministe non négociable et ce qui peut bénéficier du probabiliste. Implémenter des architectures hybrides avec des guardrails clairs, un logging exhaustif, et des seuils de confiance au-delà desquels la validation humaine est obligatoire, pas symbolique, réelle.

    Sur le plan humain : former activement les collaborateurs à distinguer un output déterministe d’un output probabiliste, et à exercer leur jugement critique face aux réponses de l’IA. La recherche montre que la simple connaissance de l’automation bias réduit significativement ses effets. Cette formation n’est pas un luxe, c’est une condition de survie organisationnelle.

    Sur le plan de l’alignement IA : spécifier non seulement les résultats attendus, mais les processus admissibles. Tester adversarialement. Chercher activement les raccourcis que le système pourrait prendre, pas seulement les réponses incorrectes. Et accepter que l’alignement parfait n’existe pas, l’objectif est de rendre les défaillances détectables, réversibles, et non catastrophiques avant qu’elles se normalisent.

    La vraie question de gouvernance

    Dans mon article précédent sur la souveraineté IA, j’explorais la dépendance externe, la question de savoir à qui appartient notre capacité à décider avec l’IA. Ces trois défis ajoutent une dimension plus interne, plus subtile : à qui appartient la cohérence de nos systèmes de gouvernance internes ?

    L’IA probabiliste ne détruit pas les règles de façon frontale. Elle les dissout par friction, par facilité, par optimisation locale. Elle offre une flexibilité que l’humain perçoit comme une libération, et qui peut être une érosion.

    La réponse n’est ni le rejet de l’IA ni la capitulation devant elle. C’est la construction patiente d’une double vigilance : architecturale et culturelle. Savoir précisément où l’on veut la certitude déterministe, et où l’on peut se permettre la flexibilité probabiliste. Et ne jamais confondre les deux, même quand c’est tentant.

    Surtout quand c’est tentant.

    Pour référence

    Ma recherche « Perplexity » plus détaillée.

    Vidéo générée à l’aide de NotebookLM

  • Pourquoi la souveraineté IA va devenir le vrai sujet stratégique

    Depuis un an, on parle beaucoup d’IA générative, de skills et d’agents autonomes. Et, de plus en plus, un autre mot revient dans les discussions : « souveraineté ». Souveraineté numérique, souveraineté des données, souveraineté IA… Le terme est invoqué partout, mais rarement défini clairement du point de vue de l’entreprise.

    Dans la plupart des discours, tout tourne autour de la productivité, de l’automatisation et des « gains rapides ». Pourtant, une question beaucoup plus stratégique commence à émerger dans les conseils d’administration et les directions : que se passe‑t‑il quand on délègue une partie de l’intelligence de l’entreprise à des IA qui ne nous appartiennent pas et que nous ne maîtrisons pas vraiment ?

    C’est cette question — et ce que « souveraineté » signifie concrètement pour une entreprise suisse qui adopte l’IA — que j’ai voulu explorer en profondeur dans deux rapports générés avec l’aide de Perplexity, accompagnés d’une vidéo de synthèse produite avec NotebookLM.

    Quand l’IA devient une externalisation invisible de compétences

    Dans le premier rapport, « Le piège de la dépendance IA », j’analyse comment l’adoption rapide de services IA hébergés (OpenAI, Anthropic, Google, etc.) peut créer une nouvelle forme de dépendance, bien plus profonde que le simple vendor lock‑in technique.

    Au fur et à mesure que les entreprises confient des tâches importantes à des agents IA — qualification de prospects, rédaction de rapports, analyse de données, support client, voire aide à la décision — elles commencent à déléguer, sans toujours s’en rendre compte, des morceaux entiers de leurs compétences internes. Comme si un département R&D, une équipe de management intermédiaire ou une cellule de veille stratégique étaient progressivement externalisés… mais cette fois, non pas à une société de services classique, mais à des plateformes d’IA globales.

    Ce premier rapport pose le diagnostic : oui, l’IA apporte des gains spectaculaires, mais elle peut aussi, si elle est mal gouvernée, fragiliser l’entreprise à moyen terme.

    Le piège de l’externalisation cognitive : la souveraineté de l’entreprise en jeu

    Le second rapport, « Souveraineté de l’entreprise à l’ère de l’IA agentique », va un pas plus loin. Il ne parle pas de souveraineté au sens géopolitique, mais de souveraineté au sens très concret de la capacité d’une entreprise à garder la main sur ses compétences clés et ses décisions stratégiques.

    À partir de travaux de recherche récents (sur l’érosion des compétences, le « piège du savoir IA », la dé‑qualification liée à l’automatisation, etc.), ce rapport montre trois points essentiels :

    • L’érosion de l’expertise humaine n’est pas une peur théorique, c’est un phénomène documenté.
    • Plus une fonction est proche du cœur stratégique de l’entreprise, plus la déléguer entièrement à des agents externes est dangereux.
    • La vraie question n’est pas « Faut‑il utiliser l’IA ? », mais « Comment l’utiliser sans perdre notre souveraineté ? ».

    Ce second rapport propose un cadre de lecture pour les dirigeants : comment distinguer ce qui peut être automatisé sans risque majeur, de ce qui doit rester sous contrôle interne, même si l’IA peut aider.

    Une vidéo pour rendre ces idées directement accessibles aux dirigeants

    Les deux rapports sont volontairement denses et s’appuient sur de nombreuses sources académiques et stratégiques (être doctorant a des conséquences). Pour les rendre plus facilement accessibles aux dirigeants pressés, j’ai créé une vidéo de synthèse avec NotebookLM.

    Cette vidéo permet de :

    • Parcourir les idées clés des deux rapports en quelques minutes.
    • Visualiser les notions de « dépendance IA », de « souveraineté d’entreprise » et de « piège de l’externalisation cognitive » avec des exemples concrets.
    • Comprendre comment ces enjeux se traduisent dans la réalité d’une entreprise en Suisse.

    L’objectif n’est pas d’entrer dans tous les détails techniques, mais de donner aux décideurs un langage et un cadre de réflexion pour poser les bonnes questions à leurs équipes IT, à leurs partenaires et à leurs fournisseurs.

    Vers une offre de « souveraineté IA d’entreprise » made in tebicom

    Chez tebicom, nous ne nous contentons pas de commenter ces enjeux : nous construisons une offre concrète pour y répondre.

    Un point de départ important est de corriger une illusion très répandue : beaucoup d’entreprises pensent « ne pas avoir encore fait le pas vers l’IA ». En réalité, la plupart de leurs collaborateurs l’ont déjà fait, individuellement, via des outils grand public (ChatGPT, Claude, Gemini, etc.), souvent en dehors de tout cadre officiel. Autrement dit, l’IA est déjà présente dans l’entreprise, mais de manière invisible, non gouvernée et potentiellement risquée — pour les données, pour la conformité et pour la souveraineté des compétences.

    C’est précisément là que notre approche intervient. Autour de solutions techniques comme DECIDE‑Companion (notre AI Gateway souverain, multi‑fournisseurs) et d’un accompagnement à la stratégie informatique et à la gouvernance globale de l’entreprise, nous aidons les entreprises à :

    • rendre visible et maîtrisable ce qui se fait déjà avec l’IA dans l’organisation,
    • canaliser ces usages vers une architecture souveraine, sécurisée et réversible,
    • profiter pleinement des agents IA là où c’est pertinent,
    • éviter le piège de la dépendance unilatérale à quelques plateformes,
    • et surtout préserver ce qui fait leur vraie valeur : leurs compétences, leur savoir tacite, leur capacité de décider par elles‑mêmes.

    Les deux rapports et la vidéo NotebookLM constituent la base conceptuelle de cette offre. Ils sont aussi pensés comme des supports de discussion pour les comités de direction, les conseils d’administration et les responsables IT qui veulent aborder l’IA non pas comme un gadget, mais comme un sujet de souveraineté d’entreprise — y compris là où l’IA est déjà entrée par la porte de côté, via les pratiques quotidiennes des collaborateurs.

  • Le numérique : 4% de votre CA!

    Les entreprises suisses investissent encore de manière prudente dans le numérique, alors même que l’environnement national est structurellement favorable et que les écarts sectoriels se creusent. Les données 2024–2026 montrent un décalage persistant entre ambitions stratégiques et maturité réelle, en particulier dans les PME. Dans ce contexte, un effort d’investissement situé entre 3 % et 5 % du chiffre d’affaires constitue un ordre de grandeur cohérent pour les entreprises qui visent une position médiane ou supérieure dans leur secteur, sous réserve d’un pilotage rigoureux et d’un alignement stratégique clair  .

    Les travaux récents soulignent que l’adoption des technologies numériques avancées reste inégale. Les petites entreprises accusent un retard marqué dans l’usage du big data et de l’intelligence artificielle, tandis que la part des investissements TIC dans l’investissement total des entreprises suisses est restée stable ces dernières années. Cette stabilité suggère que la transformation ne s’est pas traduite par une explosion des budgets matériels, mais davantage par des ajustements progressifs et des efforts en compétences  .

    Parallèlement, la Confédération a consolidé le cadre stratégique national à l’horizon 2026, avec un suivi renforcé de la compétitivité numérique, des infrastructures et des compétences. L’amélioration des indicateurs nationaux, notamment en matière de connectivité et de positionnement international, crée un environnement propice à l’investissement privé. Toutefois, ce contexte favorable ne garantit pas une diffusion homogène au sein du tissu économique, dominé par les PME.

    Les benchmarks internationaux publiés en 2026 confirment que le secteur d’activité demeure le déterminant principal du niveau de dépense IT. Dans les services financiers, les dépenses IT se situent entre environ 4.4% et 11.4% du chiffre d’affaires entre le 25e et le 75e percentile. Dans l’industrie manufacturière discrète, elles varient plutôt entre 1.4% et 3.2%. Les distributions étant asymétriques, les percentiles constituent un repère plus pertinent que les moyennes .

    Les observatoires de maturité numérique et IA publiés à partir de 2024 indiquent qu’une part significative des entreprises suisses se situe encore à un niveau faible ou intermédiaire. Moins d’un tiers des organisations disposent de solutions d’IA en production et seule une minorité a formalisé une stratégie IA. En outre, la majorité consacre moins de 5% de son budget IT à l’IA, ce qui limite l’impact transformationnel potentiel.

    Ces éléments convergent vers une conclusion opérationnelle. Pour de nombreuses PME suisses, viser un niveau d’investissement numérique supérieur à la médiane sectorielle peut constituer un levier de différenciation. Néanmoins, le volume de dépense n’est pas déterminant en soi. Les études récentes insistent sur la gouvernance des investissements, l’alignement stratégique, la qualité des données et le développement des compétences comme conditions nécessaires à la conversion des budgets IT en gains de productivité et en croissance durable  .

    En synthèse, l’ordre de grandeur de 3% à 5% du chiffre d’affaires consacré à l’IT et à la transformation numérique est compatible avec les données les plus récentes pour une entreprise suisse visant une position compétitive. Cet intervalle doit toutefois être ajusté en fonction du secteur, de la taille, de la trajectoire stratégique et du niveau de maturité existant.

    Quelques références:

    https://arxiv.org/pdf/2412.12784.pdf

    https://kof.ethz.ch/en/publications/kof-insights/articles/2025/02/digital-technology-are-small-firms-being-left-behind.html

    https://digital.swiss/userdata/uploads/en-monitoringbericht-strategie-dch-2024.pdf

    https://www.kmu.admin.ch/kmu/en/home/facts-and-trends/digitization.html

    https://avasant.com/what-we-do/benchmarking/it-spending

  • IA : faut-il croire au scénario catastrophe de 2028 ?

    Un rapport prospectif américain de Citrini Research a récemment attiré l’attention en décrivant un scénario dans lequel l’intelligence artificielle déclencherait un effondrement économique mondial d’ici 2028. Le document imagine une économie frappée par un chômage supérieur à 10%, une crise du crédit et une instabilité sociale majeure. Cette hypothèse, largement commentée, repose toutefois sur un exercice de prospective. Il s’agit d’un scénario exploratoire, destiné à tester la robustesse des systèmes économiques face à une adoption rapide de l’IA.

    La question pertinente pour l’Europe et la Suisse n’est donc pas de savoir si cette prédiction va se réaliser, mais si les conditions d’un tel enchaînement existent réellement dans notre contexte économique.

    Trois dimensions permettent d’évaluer cette plausibilité : l’emploi, la structure financière et le cadre réglementaire.

    L’emploi

    Premièrement, l’emploi. Le scénario américain repose sur l’hypothèse d’une substitution massive entre l’humain et l’IA, en particulier dans les emplois qualifiés de bureau. Dans cette vision, les systèmes d’IA remplaceraient rapidement une large part des tâches intellectuelles intermédiaires, entraînant une hausse brutale du chômage.

    Les données européennes actuelles ne confirment pas cette dynamique. En Suisse, par exemple, le taux de chômage était d’environ 3.2% début 2026, un niveau historiquement bas. Les études empiriques menées sur plusieurs milliers d’entreprises européennes indiquent que l’IA produit surtout des gains de productivité modérés, autour de 4%, sans destruction nette d’emplois. Les effets positifs apparaissent surtout lorsque l’IA est accompagnée d’investissements dans les logiciels et la formation.

    La finance

    Deuxièmement, la finance. Le scénario étudié aux États-Unis suppose une crise déclenchée par le marché du crédit privé, c’est-à-dire la dette d’entreprise financée par des fonds d’investissement plutôt que par des banques traditionnelles. Une défaillance d’entreprise pourrait alors se propager rapidement vers les assureurs et d’autres institutions financières, créant un effet domino.

    En Europe et en Suisse, la structure du financement est différente. Le crédit bancaire reste central et les standards prudentiels sont généralement plus stricts. Le marché du crédit privé existe, mais son développement est plus encadré et les taux de défaut observés restent faibles. Cette architecture limite les risques de contagion systémique décrits dans le scénario américain.

    La régulation

    Troisièmement, la régulation. L’Union européenne a adopté un cadre juridique spécifique pour l’intelligence artificielle avec l’AI Act. Ce dispositif introduit une approche fondée sur les niveaux de risque : certains usages sont interdits, d’autres sont soumis à des obligations strictes de transparence, de documentation et de supervision humaine.

    L’objectif n’est pas d’empêcher l’innovation, mais de structurer son déploiement et d’anticiper les risques économiques et sociétaux. Ce type de cadre contraste avec l’hypothèse d’un développement technologique sans intervention publique qui sous-tend le scénario catastrophe.

    Au final, les données disponibles en 2026 suggèrent un décalage important entre la fiction prospective et la situation européenne actuelle. L’adoption de l’IA y apparaît plus progressive, les systèmes financiers sont moins exposés à certains mécanismes de contagion et la régulation est déjà en place.

    Cela ne signifie pas que les risques liés à l’IA sont inexistants. L’histoire économique montre que les grandes transformations technologiques peuvent provoquer des ajustements profonds. Mais leur impact dépend largement des institutions, des politiques publiques et des choix organisationnels des entreprises.

    La même technologie peut produire des trajectoires économiques très différentes selon le contexte dans lequel elle est déployée.

    Conclusion

    La question ouverte est donc la suivante : le modèle européen (et de facto suisse) de gouvernance technologique constitue-t-il un véritable facteur de stabilité à long terme, ou seulement un mécanisme qui ralentit une transformation économique plus profonde ? Le débat sur l’impact réel de l’IA sur nos économies ne fait probablement que commencer.

  • Pourquoi les PME suisses baissent-elles la garde ?

    Dirigeants de PME, les derniers chiffres de l’étude « PME Cybersécurité 2025 » viennent de tomber, et le constat est paradoxal : alors que la menace persiste, la vigilance diminue au sein de nos entreprises.

    Voici ce qu’il faut retenir pour votre stratégie de direction : un sentiment de sécurité et une résilience en net recul. Seulement 42% des PME se sentent aujourd’hui bien préparées face à une attaque, contre 55% en 2024. Plus inquiétant encore, la cybersécurité n’est plus une priorité pour 28% des petites entreprises (contre 18 % l’an dernier).

    La menace n’est pas théorique :

    • 4% des entreprises ont été victimes d’une cyberattaque ces trois dernières années,
    • 5% ont subi une tentative de chantage,
    • 4% ont perdu de l’argent via des e-mails frauduleux.

    Si les mesures techniques (pare-feu, mises à jour) sont globalement appliquées, les mesures organisationnelles sont trop souvent négligées. Pourtant, elles sont le socle de votre cyberrésilience :

    • seulement 30 % des PME disposent d’un concept de sécurité ou d’un plan d’urgence,
    • seulement 31 % forment régulièrement leur personnel.

    Les recommandations de ma société tebicom :

    • Ne vous contentez pas de « vous sentir » en sécurité : soyez activement préparés.
    • Investissez dans l’humain : la formation du personnel est la recommandation prioritaire des prestataires IT.
    • Ajoutez une garnison (SOC, CSIRT) à votre forteresse (mesures techniques).
    • Choisissez des partenaires de confiance : privilégiez des prestataires informatiques certifiés ISO 27001.

    La cybersécurité n’est pas qu’un défi technique, c’est une responsabilité de direction pour garantir la continuité de vos activités.

    Le rapport complet et les infographies sont disponibles sur www.cyberstudie.ch.

  • L’avantage invisible

    Et si votre principal avantage compétitif se trouvait… dans un endroit que votre entreprise ne regarde presque jamais ? Les universités produisent l’essentiel de la connaissance de pointe sur l’IA, l’énergie, la santé ou encore les politiques publiques, mais cette expertise arrive rarement directement sur la table des directions d’entreprises.

    Pendant que les entreprises américaines dépensent plus de 400 milliards de dollars par an en conseil en management, la part captée par le monde académique reste microscopique : autour de 0.6%, si l’on prend le Royaume‑Uni comme référence. Ce fossé entre la connaissance disponible et celle réellement mobilisée par les organisations, Nature le décrit comme une opportunité manquée majeure, à la fois pour les universités en quête de nouveaux modèles économiques, et pour les entreprises à la recherche de nouvelles sources d’avantage stratégique.

    Le conseil (consulting) académique, c’est précisément le pont entre ces deux mondes : des interventions ciblées de chercheurs pour éclairer une décision technologique critique, challenger une feuille de route d’innovation ou analyser un risque systémique avec une profondeur scientifique que les grands cabinets n’ont pas vocation à apporter. Les données montrent d’ailleurs un virage qualitatif net : au Royaume‑Uni, le nombre de contrats a chuté d’environ 38% en dix ans, tandis que la valeur moyenne des missions augmentait fortement, signe d’un basculement vers des interventions à très haute valeur ajoutée.​

    Pour les dirigeants, l’enjeu n’est pas de remplacer le conseil traditionnel, mais de lui adjoindre un outil différent pour des besoins différents : là où les cabinets excellent dans l’exécution et le déploiement à grande échelle, le monde académique apporte rigueur scientifique, accès direct à l’état de l’art et regard véritablement indépendant sur les problèmes pour lesquels les « best practices » n’existent pas encore. L’exemple de l’Université de Southampton, qui a transformé des outils de recherche open source en plus de 600’000 livres de revenus en conseillant sur des systèmes ferroviaires critiques, illustre à quel point la théorie peut impacter directement les comptes de pertes et profits.

    Nous sommes à un moment charnière : les universités, sous pression financière et politique, cherchent à diversifier leurs revenus et à démontrer leur impact, tandis que les cabinets privés investissent déjà l’espace laissé vacant entre science et décision business. La question n’est donc plus « pourquoi s’y intéresser ? », mais « comment structurer, dès maintenant, un accès systématique à ce réservoir d’expertise ». C’est précisément ce que ce podcast va explorer : comment transformer la connaissance la plus pointue au monde en véritable avantage stratégique pour votre entreprise.

    Podcast

    Sources

    https://www.nature.com/immersive/d41586-025-03086-5/index.html

    https://www.nature.com/articles/d41586-025-04104-2

    https://www.nature.com/nature/volumes/645/issues/8082

    https://www.henleyglobal.com/publications/global-mobility-report/2024-july/stricter-visa-rules-limit-choices-international-students

    https://www.nature.com/articles/d41586-025-03065-w

    https://aiandacademia.substack.com/p/ai-and-higher-education-in-2025

    https://pmc.ncbi.nlm.nih.gov/articles/PMC11928060/

  • Tous CEO de Moi SA ?

    Arrêtons de faire de la génération Z un bouc émissaire. Elle n’est probablement qu’une onde successive du tsunami des libertés individuelles amorcé après la Seconde Guerre mondiale.

    Ce modèle de société, fondé sur l’autonomie et la responsabilité individuelle, génère des tensions réelles. Elles se manifestent clairement dans les organisations, y compris chez tebicom SA. Cette orientation vers la liberté m’est précieuse et je souhaite qu’elle perdure. Elle me paraît préférable aux approches plus autoritaires aujourd’hui remises en avant par certains courants politiques d’extrême droite (MAGA…) ou économiques dominants (les milliardaires).

    Partant de ce constat, mon objectif n’est pas de dénoncer, mais de comprendre et d’améliorer.

    Cet article présente une première étape de mes recherches sur ce sujet, avec un focus particulier sur les implications managériales.

    Nous vivons une rupture sociologique profonde qui redéfinit le contrat implicite entre les organisations et leurs collaborateurs. Elle résulte de transformations culturelles et sociales de long terme.

    Pendant des décennies, le modèle dominant reposait sur des trajectoires prescrites, des hiérarchies stables et des rôles clairement définis. L’individu n’était pas gestionnaire de sa propre vie. Les structures décidaient pour lui. La famille, l’église, l’état, l’entreprise. La liberté individuelle restait largement réservée à une minorité.

    Un basculement s’opère progressivement après la Seconde Guerre mondiale, notamment avec la Déclaration universelle des droits de l’homme de 1948. L’individu devient libre, donc responsable : il est supposé piloter sa propre existence.

    Les générations successives n’ont fait qu’amplifier ce mouvement. Aujourd’hui, cette culture de l’autonomie individuelle est largement diffusée, bien au-delà des plus jeunes.

    Cette forme d’entrepreneurialisme du soi produit des effets positifs, tant sur le plan individuel que sociétal. Mais elle révèle aussi une fragilité majeure. Beaucoup de personnes n’ont jamais été réellement ni éduquées, ni formées à gérer leur propre autonomie. Ni à structurer leurs choix, ni à assumer durablement leurs responsabilités. En pratique, « Moi SA » reste souvent une organisation mal gouvernée.

    Dans les entreprises, le capital humain réclame davantage de liberté et d’autonomie depuis des années. Pourtant, une part significative des collaborateurs, toutes générations confondues, peine déjà à gérer son propre équilibre personnel. La transposition à l’équipe et à l’entreprise devient alors complexe… et c’est un euphémisme 😅

    Chez tebicom, nous nous posons deux questions fondamentales :

    1. Le rôle du manager doit-il évoluer vers une fonction explicite de formation et de coaching du savoir-vivre des collaborateurs, afin que l’autonomie accordée devienne une autonomie réelle, maîtrisée et assumée ?
    2. Comment déterminer les personnes réellement matures et autonomes lors du recrutement ?

    Pour moi, il est maintenant très clair que l’holacratie, tout comme n’importe quel autre modèle de gouvernance, nécessite deux fondations sans lesquelles elle ne pourra pas apporter de la valeur à l’entreprise :

    1. Des leaders disposant de compétences solides en leadership et en management.
    2. Des collaborateurs autonomes et matures.

    🎬 La vidéo en couverture approfondit ce nouveau paradigme, sur la base de mes dernières recherches.

  • Technologie Calme

    Dans la continuité de mes recherches sur la disparition progressive de l’informatique visible, je partage aujourd’hui un point clé de cette évolution : des informations délivrées de manière ciblée et contextuelle (notifications, push). L’objectif est de réduire l’effort cognitif en apportant uniquement ce qui est pertinent au moment où l’utilisateur en a besoin.

    J’expose ce principe, basée sur différents articles pas forcément très récents, dans la vidéo ci-dessous.

    Du côté tebicom SA, nous proposerons très prochainement une solution destinée aux entreprises allant dans le sens de cette vision de l’informatique.