Posez-vous une question simple avant d’aller plus loin : si votre organisation déployait demain les outils IA les plus performants disponibles sur le marché, qu’est-ce qu’ils amplifieraient exactement ? La question est inconfortable précisément parce qu’elle inverse la logique dominante du discours sur la transformation digitale, qui présente l’IA comme un correcteur des défaillances organisationnelles plutôt que comme ce qu’elle est réellement : un amplificateur de ce qui existe déjà, dans ses forces comme dans ses faiblesses, dans sa cohérence comme dans ses contradictions.
Si votre marketing est stratégiquement ancré et narrativement solide, l’IA produira plus rapidement et à plus grande échelle ce que vous faites déjà bien. Si votre marketing est dispersé et déconnecté de votre vision, l’IA produira plus rapidement et à plus grande échelle ce que vous faites déjà mal, et cette accélération de l’incohérence sera d’autant plus difficile à corriger qu’elle aura été industrialisée avant d’avoir été identifiée comme problème.
Friedrich Hayek, dont les travaux sur la connaissance dispersée ont posé les bases d’une compréhension profonde des limites de toute forme de planification centralisée, formulait un argument qui s’applique avec une précision saisissante aux systèmes IA contemporains : la connaissance pertinente pour la prise de décision dans un système complexe n’est pas concentrée dans un lieu unique d’où elle pourrait être extraite et traitée algorithmiquement, elle est dispersée entre des acteurs qui détiennent chacun une fraction de connaissance locale, contextuelle et souvent tacite.
Ce cadre théorique, formulé bien avant l’émergence de l’IA générative mais d’une actualité saisissante face à elle, permet de comprendre pourquoi la valeur d’un système IA dépend entièrement de la clarté de la question à laquelle il est censé répondre et de la qualité des données sur lesquelles il est entraîné. Une organisation qui n’a pas clairement défini ce qu’elle cherche à construire ne peut pas formuler les bonnes questions à ses systèmes IA, et une organisation dont les données reflètent des années de pratiques incohérentes obtiendra des outputs qui reproduisent cette incohérence avec une efficacité et une échelle accrues.
Comment l’IA est devenue le miroir de la stratégie
Pour comprendre pourquoi l’IA amplifie la cohérence ou l’incohérence existante plutôt qu’elle ne les crée, il faut remonter à la manière dont chaque vague technologique majeure a été accueillie par les organisations depuis l’avènement du marketing digital. Chaque innovation, des premiers CRM aux plateformes d’automation marketing, a été présentée comme la solution aux problèmes stratégiques des organisations qui l’adoptaient, et chaque fois, les organisations les moins cohérentes ont découvert que la technologie rendait leurs lacunes plus visibles et plus coûteuses.
Ce que George Gilder formulait dans Knowledge and Power trouve ici une application éclairante : la valeur économique et stratégique d’un système technologique ne réside pas dans sa puissance de traitement mais dans la qualité de la connaissance entrepreneuriale qui l’oriente. L’IA n’est donc pas intrinsèquement bénéfique ni intrinsèquement dangereuse pour une organisation : elle est ce que l’organisation qui la déploie est capable d’en faire avec la cohérence stratégique dont elle dispose.
Michael Polanyi éclairait cette limite en montrant que la connaissance tacite, cette dimension de l’expertise humaine qui ne peut pas être entièrement codifiée, reste irréductible aux systèmes qui opèrent sur des données observables. Un système IA entraîné sur les productions passées d’une organisation capture la dimension explicite de ses pratiques sans accéder à la dimension tacite qui en constitue souvent la valeur stratégique réelle.
Erik Brynjolfsson a montré que les gains de productivité les plus significatifs ne proviennent pas de la substitution de l’humain par la machine mais de la complémentarité entre les deux. Cette complémentarité suppose une réflexion préalable sur ce que chacun fait mieux et sur la manière dont leurs contributions s’articulent dans un processus cohérent, réflexion que beaucoup d’organisations omettent lorsqu’elles déploient l’IA avant d’avoir clarifié ce qu’elle doit réellement amplifier.
Qu’est-ce qu’une stratégie IA cohérente ?
La question de ce que signifie une stratégie IA cohérente ne peut pas être répondue sans avoir d’abord établi ce que signifie une stratégie tout court. La plupart des organisations échouent ici avant même d’avoir commencé : elles cherchent à définir une stratégie IA sans avoir fait les arbitrages explicites qui définissent ce qu’elles sont, ce qu’elles veulent construire et ce à quoi elles renoncent.
Michael Porter insistait sur ce point : une stratégie n’est pas une liste d’ambitions ni un catalogue d’initiatives, c’est un système d’arbitrages cohérents. Cet argument s’applique à l’IA avec une force particulière, parce que l’IA offre tellement de cas d’usage apparemment attractifs qu’elle rend les arbitrages plus difficiles et donc plus nécessaires.
L’adoption tactique de l’IA consiste à automatiser des processus existants, réduire des coûts opérationnels ou améliorer des métriques déjà suivies, sans se demander si ces processus méritent d’être automatisés ni si ces métriques sont les bonnes. Une stratégie IA cohérente commence par la vision, descend vers les cas d’usage qui contribuent à la réaliser, puis choisit les outils en fonction de leur capacité à servir ces cas d’usage précis.
Israel Kirzner apporte ici un éclairage décisif : l’entrepreneur crée de la valeur non pas en optimisant des processus connus mais en identifiant des opportunités que personne d’autre n’a encore vues. Les systèmes IA, entraînés sur des données passées, peuvent aider à détecter des patterns, mais ils ne remplacent pas cette alerte entrepreneuriale qui consiste précisément à voir ce qui n’existe pas encore dans les données.
IA générative et marketing : entre promesse et simulacre
L’IA générative est probablement la technologie qui a créé le plus d’enthousiasme et le plus de confusion dans l’univers du marketing, parce qu’elle offre la possibilité de produire du contenu en volume quasi illimité à un coût marginal proche de zéro. Cette promesse semble résoudre l’un des problèmes constants du marketing de contenu : la contrainte de production.
Mais cette apparente résolution masque un problème stratégique plus profond : si le problème du marketing de contenu était un problème de volume, l’IA générative serait la solution parfaite ; si le problème était un problème d’autorité thématique, de cohérence narrative et de distinctivité intellectuelle, alors l’IA générative non encadrée devient une accélération du problème.
Nicholas Carr a analysé les effets cognitifs de la délégation technologique : déléguer à des systèmes automatisés des tâches qui exigent un jugement intellectuel peut atrophier progressivement la capacité à exercer ce jugement. Gary Marcus a prolongé cette critique en montrant que la plausibilité statistique des outputs des LLMs crée une illusion de compétence particulièrement dangereuse lorsque la précision factuelle et la cohérence intellectuelle sont les critères décisifs.
La notion de simulacre, telle que Baudrillard la formulait, trouve ici une application directe : un corpus de contenus produit massivement par des LLMs sans cadre stratégique rigoureux ressemble à du contenu de valeur sans en avoir la substance, imite l’autorité thématique sans la construire, et reproduit les formes du discours expert sans en avoir la profondeur.
Gouvernance de l’IA : aligner les systèmes sur les valeurs
La gouvernance de l’IA est trop souvent présentée comme une question technique et réglementaire, une affaire de conformité à l’EU AI Act, au NIST AI RMF ou à l’ISO 42001. Elle est pourtant d’abord une question organisationnelle et stratégique : on ne gouverne pas efficacement des systèmes IA dans une organisation qui n’a pas d’abord résolu ses problèmes de cohérence stratégique.
Hayek apporte ici un éclairage puissant par sa distinction entre ordre spontané et ordre construit : les systèmes complexes fonctionnent mieux lorsqu’ils s’appuient sur des règles générales qui laissent aux acteurs la liberté d’adapter leurs comportements aux circonstances locales, plutôt que sur des règles précises qui cherchent à anticiper toutes les situations depuis un centre unique.
C’est précisément dans cet espace, entre l’insuffisance de la régulation top-down et la nécessité d’une gouvernance réelle, que le framework NAS/BCI trouve sa pertinence opérationnelle : mesurer la cohérence entre les engagements déclarés des organisations sur l’IA et leurs pratiques observables dans leurs décisions de déploiement, leurs choix de données d’entraînement et leurs mécanismes de supervision humaine.
Luciano Floridi rappelle que la gouvernance éthique de l’IA n’est pas une contrainte externe imposée à des systèmes qui fonctionneraient mieux sans elle, mais une condition de leur efficacité à long terme, parce que des systèmes IA qui ne sont pas gouvernés de manière cohérente avec les valeurs de l’organisation érodent la confiance des parties prenantes.
IA et données : la qualité comme condition de l’intelligence
Il existe une croyance profondément ancrée dans la culture du marketing data-driven selon laquelle plus de données produit nécessairement plus d’intelligence. Cette croyance est fausse et dangereuse, parce qu’elle conduit les organisations à investir dans la collecte et le stockage de données sans s’interroger sur leur pertinence, leur cohérence et leur représentativité.
Hayek montre que la connaissance pertinente pour la décision est dispersée, locale et souvent tacite, ce qui signifie que les données collectées par une organisation ne capturent jamais qu’une fraction de la connaissance nécessaire à un système IA capable de décisions stratégiques de qualité.
Polanyi prolonge cet argument : la dimension tacite de la connaissance permet à un expert de reconnaître une bonne décision sans pouvoir toujours l’expliquer. Or cette dimension résiste à la codification dans des données observables. Nate Silver le formule autrement lorsqu’il rappelle que distinguer le signal du bruit est une compétence d’interprétation, pas une propriété automatique des données.
La question préalable à tout investissement IA n’est donc pas le volume de données mais leur cohérence avec l’intention stratégique de l’organisation, leur représentativité des situations dans lesquelles le système opérera, et leur liberté relative vis-à-vis des biais qui reflètent des pratiques passées que l’organisation cherche précisément à dépasser.
Automatisation et cohérence narrative : le risque de la délégation
L’automatisation marketing par l’IA pose une question rarement formulée avant le déploiement : à quel moment la délégation à un système automatisé cesse-t-elle d’être une extension de la capacité humaine pour devenir une substitution qui érode progressivement la cohérence narrative que seul le jugement humain ancré dans une vision stratégique claire peut maintenir ?
Ludwig von Mises rappelait que l’action humaine est orientée vers des fins choisies par un sujet qui comprend le sens de ce qu’il fait. Cette caractéristique est irréductible à l’optimisation algorithmique, qui maximise une fonction objective sans comprendre pourquoi cette fonction a été choisie ni détecter le moment où elle cesse d’être pertinente.
John Austin apporte ici une dimension décisive : chaque message produit par un système automatisé engage la marque de la même manière qu’un message produit par un humain, parce que les audiences ne distinguent pas la communication humaine et automatisée dans la représentation qu’elles se font de la marque. Un workflow mal réglé ne commet pas une simple erreur technique, il crée une réalité narrative contradictoire.
La délégation n’est donc acceptable que lorsqu’elle est encadrée par des règles de cohérence narrative suffisamment précises pour que les outputs IA prolongent la vision plutôt que de la diluer.
IA et transformation organisationnelle : changer sans se trahir
La transformation organisationnelle par l’IA est souvent mal conduite parce qu’elle est abordée comme un projet d’ingénierie totale : remplacer des processus existants par des processus augmentés par l’IA, sans se demander si cette transformation est cohérente avec ce que l’organisation est, ce qu’elle veut construire et ce que ses parties prenantes attendent d’elle.
Karl Popper critiquait l’ingénierie sociale utopique et rappelait que les systèmes complexes évoluent mieux par réformes graduelles et essais-erreurs que par reconstruction depuis un plan idéal. Cette logique contraste avec une approche de la transformation IA qui reconfigure des processus entiers avant même d’avoir compris ce qu’ils contenaient de valeur tacite.
Hayek place cette valeur tacite institutionnelle au cœur de l’ordre spontané : les institutions qui fonctionnent bien sont souvent le produit d’une évolution progressive qui a intégré une connaissance que nul planificateur ne pourrait synthétiser consciemment. Paul Ricoeur prolonge cette intuition par sa théorie de l’identité narrative : les organisations traversent mieux les transformations technologiques lorsqu’elles restent fidèles à une promesse tenue à travers le changement.
John Kotter apporte la dimension opérationnelle : les transformations réussies créent suffisamment d’urgence, obtiennent des victoires rapides et s’ancrent assez profondément dans la culture existante pour être vécues comme des évolutions naturelles plutôt que comme des impositions externes.
Les erreurs classiques de la stratégie IA
Comprendre pourquoi les stratégies IA échouent est aussi important que comprendre comment les réussir. Les patterns d’échec sont suffisamment récurrents pour être identifiables en amont, et suffisamment structurels pour ne pas disparaître avec l’amélioration des outils ou l’augmentation des budgets.
La première erreur est l’IA comme solution à la recherche d’un problème : l’organisation déploie des outils IA parce que la pression concurrentielle et l’enthousiasme ambiant créent une urgence d’adoption qui précède toute réflexion sur les cas d’usage réellement pertinents. La deuxième est l’adoption sans gouvernance, c’est-à-dire le déploiement de systèmes IA sans règles claires, sans mécanismes de supervision humaine et sans critères d’évaluation des outputs.
La troisième erreur est la délégation sans supervision, qui confie à des systèmes automatisés des décisions de communication dont les implications narratives dépassent ce que les contrôles existants peuvent corriger en temps réel. La quatrième est la personnalisation sans consentement réel, qui exploite des données comportementales sans que l’utilisateur comprenne réellement comment elles sont utilisées.
La cinquième erreur est l’automatisation sans cohérence narrative, qui produit une dissociation progressive entre ce que la marque dit et ce qu’elle est. La sixième est la transformation de façade, l’adoption du discours IA sans transformation réelle des processus, de la gouvernance ni des pratiques opérationnelles.
NAS/BCI : mesurer la cohérence à l’ère de l’IA
Les erreurs classiques de la stratégie IA ont un point commun : elles manifestent un écart entre ce que l’organisation affirme faire avec l’IA, dans ses communications publiques, ses politiques internes et ses engagements, et ce qu’elle fait réellement dans ses décisions de déploiement, ses choix de données d’entraînement et ses mécanismes de supervision.
Le NAS, Narrative Alignment System, mesure la cohérence entre les engagements narratifs d’une organisation sur l’IA et les signaux observables de ses pratiques réelles, en mobilisant une logique d’analyse indiciaire inspirée du paradigme indiciel de Carlo Ginzburg. Décisions de recrutement, architecture technique, pratiques de collecte de données, supervision humaine et traitement des erreurs deviennent autant de traces permettant de lire l’état réel de la cohérence organisationnelle.
Le BCI, Behavioral Coherence Index, agrège ces signaux en une mesure synthétique de la cohérence comportementale, permettant de suivre son évolution dans le temps et de comparer des organisations sur une dimension jusqu’ici difficile à quantifier de manière rigoureuse. Le framework ne promet pas une conformité abstraite, mais un miroir : une capacité à voir l’écart entre ce qu’une organisation affirme être et ce qu’elle est réellement dans ses pratiques.
C’est cette capacité critique qui rend le NAS/BCI pertinent à l’ère de l’IA : il ne cherche pas à remplacer le jugement stratégique par une métrique, mais à donner au jugement stratégique un objet mesurable, discutable et actionnable.
Approfondir : ressources sélectionnées
Les articles et ressources rassemblés ici constituent le corpus de référence sur lequel s’appuie notre approche de la stratégie IA. Ils sont organisés en quatre sous-groupes thématiques pour faciliter une lecture orientée selon les besoins spécifiques de chaque lecteur.
IA générative et marketing
Applications concrètes de l’IA générative dans le marketing, avec une distinction entre valeur réelle et illusion de sophistication.
- L’Intelligence Artificielle (IA) au service du SEO
- Comment utiliser les IA pour développer votre SEO ?
- Comment choisir le meilleur modèle d’IA pour votre chatbot ?
- Comment différencier les chatbots de l’IA ?
- Studio Ghibli, Starter Pack et Megamachines : l’illusion douce du remplacement créatif par l’IA
- Utiliser le Machine Learning pour votre Stratégie Marketing Digital
- Comment utiliser le deep learning pour votre référencement
- Les grandes innovations du marketing digital pour 2024
Automatisation et chatbots
Approche critique et opérationnelle de l’automatisation marketing, entre valeur relationnelle et dégradation de l’expérience client.
- Chatbot : intérêts et utilisations ?
- Chatbots : Des fonctionnalités pour améliorer l’expérience utilisateur (UX)
- Comment les chatbots améliorent votre stratégie de growth hacking ?
- Analyse Prédictive en Marketing : Techniques, Études de Cas et Avenir des Tendances de Marché
- No-Code, Panacée pour Growth Hacker ou Juste Arnaque Intellectuelle ?
- Créer des expériences de marketing immersif avec la VR et l’AR
Blockchain et technologies émergentes
Technologies émergentes qui redéfinissent les frontières du marketing digital, en distinguant effet de mode et création de valeur.
- Quel sera l’impact de la blockchain sur le référencement ?
- NFT et Marketing
- RGPD et Blockchain : une recomposition du marketing digital ?
- Les SoulBound Tokens (SBT) et marketing
- SBT : nouvelle opportunité pour les collectes de fonds en ligne
- Le Métavers : L’Avenir Du Marketing
- Les métavers et son impact sur votre entreprise
- L’IA, la Blockchain et le Référencement : le Futur du Marketing
Transformation digitale et gouvernance
Conditions organisationnelles, culturelles et éthiques pour tirer parti de l’IA sans compromettre la légitimité.
- Réguler l’IA sans la freiner
- Astroturfing et intelligence artificielle : vers une stratégie d’influence mesurable et assumée
- Vers une transformation digitale heureuse !
- Assurer la réussite de la transformation digitale de votre entreprise
- Les avantages de la transformation digitale : performance et innovation
- Comment la Culture Numérique en Entreprise Propulse l’Innovation et la Compétitivité
- Un monde sans cookies : vers un Internet plus sain ou une illusion de contrôle ?
FAQ : les questions que se posent les dirigeants
Comment savoir si mon organisation est prête à adopter l’IA ?
La vraie question préalable n’est pas de savoir si les équipes maîtrisent les outils, mais si l’organisation sait précisément ce qu’elle cherche à construire, dispose d’une cohérence narrative assez solide pour encadrer les outputs IA, et a identifié des cas d’usage assez précis pour que l’investissement soit évaluable sur des critères de valeur réelle plutôt que de sophistication technologique.
Quelle différence entre automatisation et intelligence artificielle ?
L’automatisation classique exécute des règles prédéfinies par des humains de manière répétable et prévisible. L’intelligence artificielle identifie des patterns dans des données et génère des outputs qui n’ont pas été explicitement programmés. Cette différence implique une gouvernance différente : l’automatisation peut être déléguée lorsque les règles sont stables, l’IA exige une supervision humaine continue parce que ses outputs restent partiellement imprévisibles.
L’IA peut-elle remplacer une stratégie marketing ?
Non. L’IA peut accélérer l’exécution d’une stratégie, personnaliser sa mise en œuvre à grande échelle et optimiser certaines composantes tactiques. Elle ne peut pas définir ce que l’organisation veut construire, arbitrer entre des options stratégiques ni maintenir une cohérence narrative sans cadre humain.
Comment gouverner l’utilisation de l’IA dans mon organisation ?
La gouvernance IA commence par la cohérence entre ce que l’organisation affirme être dans son rapport à l’IA et ce qu’elle fait réellement. Ensuite seulement viennent les règles pratiques : types de décisions déléguables, mécanismes de contrôle, supervision humaine, documentation des erreurs et intégration des apprentissages dans un processus d’amélioration continue.
Quels sont les risques de l’IA générative pour ma marque ?
Les risques les plus importants sont souvent invisibles dans les métriques à court terme : érosion de l’autorité thématique par la production de contenu générique, dissociation entre la narrative de marque et les outputs IA, atrophie cognitive des équipes créatives et fragilisation de la confiance lorsque l’automatisation produit des messages incohérents.
Par où commencer pour intégrer l’IA dans ma stratégie ?
Il faut commencer par la stratégie, pas par l’IA : clarifier l’intention stratégique, évaluer la cohérence narrative actuelle, identifier deux ou trois cas d’usage précis où l’IA crée une valeur mesurable, puis définir les règles de gouvernance qui garantissent que les outputs IA amplifient ce qui mérite d’être amplifié.
L’IA au service de ce que vous êtes
Il existe un moment dans le développement de toute organisation confrontée à la transformation par l’IA où la question cesse d’être une question d’outils, de budgets ou de compétences techniques, et devient une question d’identité : est-ce que ce que nous faisons avec l’IA est cohérent avec ce que nous sommes, avec ce que nous voulons construire et avec ce que nous nous sommes engagés à être auprès de nos clients, de nos partenaires et de nos équipes ?
Ce que Hayek formulait sur la connaissance dispersée, ce que Kirzner développait sur l’alerte entrepreneuriale et ce que Gilder articulait sur la connaissance entrepreneuriale convergent vers une même conclusion appliquée à l’IA : la technologie la plus puissante ne produit de valeur durable que lorsqu’elle est au service d’une intention humaine claire, ancrée dans une vision cohérente.
La mission Télos est conçue pour les dirigeants qui ont compris que leur problème n’est pas un problème d’IA mais un problème de cohérence stratégique préalable à toute adoption rationnelle de l’IA. Elle commence par un audit de cohérence qui permet d’objectiver l’état réel de l’alignement entre la vision stratégique, la narrative de marque et les pratiques opérationnelles de l’organisation.