Depuis que j’ai rejoint l’équipe Policy du CeSIA, je vois se rejouer la même tension : comment intégrer l’intelligence artificielle dans les produits, les parcours, les récits d’entreprise, sans trahir ni ralentir l’ambition initiale ? Il ne s’agit pas d’ajouter des garde-fous abstraits à une technologie en mouvement. Il s’agit de tenir une ligne : permettre à l’IA de servir une intention, tout en garantissant que cette intention demeure lisible, assumée et vérifiable.
Le droit s’installe (IA Act, doctrine CNIL, lignes de crête RGPD) et ce mouvement est irréversible. Mais derrière la norme, ce sont des gestes concrets qu’il faut inventer : comment désigner celui qui tranche, tracer celle qui valide, informer celui qui lit. À trop croire que l’innovation se joue contre la contrainte, on oublie qu’elle naît de formes tenues. Et c’est précisément ce qui se joue ici : non pas ralentir l’IA, mais lui donner un cadre habitable. Une voix juste ne surgit jamais du vide. Elle vient d’un lieu, le bashō, ce point d’unification silencieux où s’ordonnent les décisions, les récits, les responsabilités.
Ainsi, je propose une boussole simple basée sur deux principes : la finalité d’une part et d’autre part, la preuve. En effet, la finalité donne le cap, elle relie usage et promesse. En effet, elle vous oblige à dire pourquoi vous déployez tel modèle, dans quelle logique de service, pour quel effet attendu. La preuve, elle, assure la tenue, en rendant visible la supervision humaine, en documentant les arbitrages et en installant une responsabilité algorithmique qui ne se dilue pas. Ce duo, finalité et preuve, installe une éthique opératoire : un langage de l’action, où chaque sortie IA devient un engagement, non une variation décorative.
Les penseurs que j’affectionnent ne sont pas là en ornement mais bien pour apporter une réflexion différenciante. J. L. Austin, d’abord, parce qu’un énoncé ne vaut que s’il remplit ses conditions de félicité (Felicity) : autorité, contexte et reconnaissance. Paul Ricœur, ensuite, qui nous rappelle que la responsabilité ne consiste pas à « avoir voulu », mais à pouvoir se reconnaître dans l’acte accompli. Kierkegaard, toujours, pour cette idée décisive : la fidélité n’est pas dans la répétition mécanique, mais dans la reprise vivante d’une intention première. Et Niklas Luhmann, enfin, pour ce point aveugle que les plans de transformation oublient : la confiance ne se déclare pas, elle se standardise, elle se donne sous forme de routines, d’attentes stabilisées, de signes que chacun peut anticiper.
À ceux qui pilotent des produits, à ceux qui animent une marque, à ceux qui tiennent un engagement public, ce texte propose un itinéraire clair. Non pas un empilement de règles, mais une gouvernance qui relie les gestes et qui va s’organiser, tel un opera seria, en trois mouvements.
D’abord, rendre la responsabilité praticable : poser des rôles, maintenir des traces, arbitrer sans alourdir. Ensuite, inscrire la règle dans le produit et dans le parcours : que l’IA s’affiche, que la main humaine reste visible, que le design soutienne la fidélité narrative. Enfin, rendre cette cohérence visible, aux lecteurs, aux régulateurs, aux moteurs de recherche, et demain aux IA elles-mêmes. Ce sera peut-être l’enjeu central des mois qui viennent : pour exposer en amont ce que l’on est prêt à tenir. La promesse n’a de force que si l’on accepte qu’elle soit jugée.
I. Gouverner l’IA par la finalité et la preuve
Ce que vous gouvernez, c’est avant tout un langage. Un système qui assiste, génère ou recommande n’est pas neutre : il parle. Il parle en votre nom, avec vos données, dans votre promesse. Et chaque mot prononcé par l’IA, qu’il soit résumé, insight ou formulation, engage un cadre, une autorité, un point de vue. C’est pourquoi la gouvernance de l’IA ne commence ni dans la technique, ni dans la conformité : elle commence dans la finalité, c’est-à-dire dans la capacité de dire pour quoi l’on agit. Et elle s’éprouve dans la preuve, c’est-à-dire dans ce qui subsiste du geste accompli une fois qu’il a été prononcé.
I.1 — L’architecture ne commence pas par l’organigramme, mais par l’intention
Piloter un système IA, c’est poser une intention lisible et en faire découler une structure habitable. Cette idée, Aristote l’appelait phronèsis : la prudence qui oriente plutôt que de freiner. Ainsi, il s’agit de structurer le jugement en situation. L’IA Act ne dit pas autre chose : la documentation, le logging, l’obligation d’enregistrement automatisé ne sont pas des corsets juridiques ; ce sont des conditions minimales pour que l’on puisse revenir sur une décision, et comprendre pourquoi elle a été prise.
Dans ce triptyque, finalité, rôle, trace, vous tenez une ossature qui se transpose immédiatement dans vos produits, vos contenus, vos parcours. La finalité répond à une question première : que cherche-t-on à accomplir, et en quoi l’IA y contribue ? Le rôle découle de cette finalité : qui initie, qui tranche, qui valide, qui répond ? La trace, enfin, installe la continuité : elle relie l’acte à son intention, et permet à un tiers de rejouer la décision sans recourir à l’explication postérieure.
Mais une architecture ne vaut que si elle se laisse habiter. Schein, à sa manière, prolonge une intuition que Kierkegaard avait formulée en d’autres termes : la culture ne se proclame pas, elle se répète. Une structure devient réelle lorsque ses artefacts, model cards, RACI, revues, escalades, cessent d’être formels pour devenir des gestes. Une revue éditoriale IA hebdomadaire. Une relance automatique lorsqu’un seuil sensible est franchi. Un protocole explicite pour les cas où la promesse de marque pourrait être altérée. Ce sont ces routines sobres qui installent une culture. Parce qu’elles s’ancrent dans l’action et s’y répètent.
Karl Weick prolonge ce point : le risque n’est pas un objet objectif que l’on mesure. Il se construit collectivement, par un processus de sensemaking, en tant qu’élaboration conjointe du sens qui réduit l’ambiguïté. Ainsi, le rôle de la gouvernance n’est pas d’annuler l’incertitude, mais de la structurer suffisamment pour que l’équipe puisse agir sans s’inquiéter de ce qu’elle a le droit de faire. Un rituel simple (pré-mortem, revue, escalade), tenu à jour et compris de tous, vaut bien mieux que mille chartes inertes. Il ne freine pas. Il allège et améliore la productivité dans son ensemble.
La répétition, ici, n’est jamais duplication : elle est fidélité active. Kierkegaard nous y ramène. Tenir une ligne narrative, à travers l’itération, les canaux, les équipes, suppose de rejouer sans renier et de dire à nouveau sans se répéter mécaniquement. Cette continuité, c’est votre voix. Et cette voix, vous la rendez habitable par des gestes répétés, des revues, des journaux, des seuils, que chacun peut comprendre et tenir.
Soyez donc simple. Un RACI IA lisible. Des model cards reliées à vos cas d’usage. Des revues régulières (hebdomadaire, mensuelle, trimestrielle). Une trace horodatée pour chaque publication sensible. Et un human-in-the-loop nommé, responsable, traçable. Ce n’est pas un luxe. C’est ce qui permet à la promesse de tenir dans le temps, même lorsque les assistants se multiplient et que les cas d’usage se diversifient.
En arrière-plan, vous préparez un rythme. Une publication périodique, sobre et structurée, qui expose la constance, la reconnaissance, l’alignement contextuel. En utilisant un signal de cohérence, non pour flatter la marque, mais pour l’exposer Un signal aussi bien lisible par les humains, que compréhensible et interprétable par les IA.
I.2 – Éthique opératoire du langage : légitimité, disclosure, révision humaine
Ce que produit une IA n’est jamais une simple suite de mots. C’est un énoncé. Or, dans toute organisation, parler, c’est faire. J. L. Austin l’a formulé de manière décisive : un énoncé n’est pas vrai ou faux comme un fait ; il est « heureux » ou « malheureux » selon les conditions dans lesquelles il est prononcé. Il suppose une autorité reconnue, une situation définie, une relation assumée. Bien avant Austin, Aristote en avait déjà pressenti les linéaments dans sa Rhétorique, en montrant que toute parole publique engageait l’Ethos (la crédibilité du locuteur), le Pathos (la disposition de l’auditoire) et le Logos (la cohérence de l’argument). Dès lors qu’une IA parle au nom d’une organisation, même en mode assisté, elle engage une marque, une responsabilité, une mémoire.
C’est pourquoi la régulation du langage IA n’est pas un supplément moral, ni un ornement conforme. C’est une exigence structurelle. Toute stratégie éditoriale assistée par IA doit répondre à trois critères fondamentaux : une autorité identifiable (qui est responsable du dire ?), un cadre de disclosure clair (où commence et finit l’intervention de l’IA ?), et une trace consultable et intelligible (qu’est-ce qui permet de relier l’énoncé à son contexte de production ?). Sans cela, les paroles prononcées sont des promesses sans auteur, des simulacres de discours, ce que Kierkegaard aurait appelé des « répétitions vides ».
Ricœur, dans Soi-même comme un autre, rappelle que la responsabilité ne réside pas dans l’intention, mais dans la reconnaissance du dire comme sien. Cela implique une capacité à relire, réviser, assumer. Une politique éditoriale assistée ne peut donc se limiter à un disclaimer générique. Elle suppose un protocole opératoire : journalisation des prompts, versions validées, réviseur humain désigné. C’est dans cette boucle de révision que s’ancre la légitimité de la parole. Et c’est cette boucle qui, progressivement, installe une confiance située, non fondée sur l’autorité du système, mais sur la clarté du cadre.
Il ne s’agit pas ici d’entraver la fluidité de production. Au contraire, plus le protocole est clair, plus la liberté d’itération est grande. Ainis, une IA peut proposer un insight, rédiger un draft, reformuler un message. Mais la décision de publication doit rester gouvernée : vous n’automatisez pas l’énonciation, vous assistez l’auteur. Or, l’auteur, même augmenté, reste une personne identifiable, non une simple interface.
Ainsi, cette exigence s’inscrit dans une longue tradition du langage éthique. Le mot vrai est celui qui peut être tenu. Kierkegaard, encore, nous avertit : répéter, ce n’est pas rejouer mécaniquement. C’est reprendre, habiter, reformuler. Une promesse de marque ne tient pas par son uniformité, mais par sa capacité à traverser les formats, les contextes, les publics, sans perdre son orientation. Ainsi, la répétition bien conduite est donc une fidélité active qui reprend avec responsabilité.
À cette aune, une IA qui assiste le langage organisationnel doit être encadrée comme un collaborateur qui apprend : on trace, on accompagne, on révise. Et surtout, on assume ce qui est dit en notre nom. La disclosure n’est pas un exercice cosmétique ; c’est une mise à nu structurante. Un simple libellé comme « IA assisté, révisé par X » suffit souvent, s’il est placé au bon endroit, au bon moment, avec les bons attributs sémantiques. Il n’y a là ni lourdeur, ni perte de temps : simplement l’engagement d’une parole qui peut être opposée, relue, habitée.
En arrière-plan, ces pratiques préparent la consolidation d’un indice de cohérence — le NAS (Narrative Alignment Score). Cet indice, (nous y reviendrons) s’enracine précisément dans cette dimension : la capacité à relier ce qui est dit, par qui, avec quelles garanties, et selon quel protocole. Dans un monde où les IA génératives prolifèrent, ce geste de clarification vaut plus qu’un contrat : il installe une parole crédible, parce qu’elle est traçable, assumée, et structurellement gouvernée.
I.3 – Traçabilité sans friction : l’auditabilité comme accélérateur d’innovation
C’est l’absence de preuve partageable qui ralentit l’innovation. Ainsi, l’intuition centrale est simple : tant qu’une décision ne laisse pas de trace, elle reste défendable seulement par rhétorique, non par reconstruction. À l’inverse, une décision documentée, contextualisée, relue, devient transmissible, réplicable, auditable. C’est ce déplacement, de l’argument au journal, de la parole au protocole, qui crée un véritable terrain d’accélération.
Le cadre européen le confirme explicitement. Le règlement (UE) 2024/1689 exige, pour les systèmes à haut risque, une documentation établie avant mise sur le marché, un enregistrement automatique des événements tout au long du cycle de vie, et une notice compréhensible pour les déployeurs. Ce n’est pas un fardeau : c’est l’ingénierie minimale pour que la gouvernance algorithmique soit lisible. Ce que vous gagnez, ce n’est pas seulement de la conformité, c’est un langage de supervision qui évite le ralentissement post-incident. Quand la preuve précède le litige, l’innovation peut avancer plus vite car elle n’est alors plus inquiété par l’arbitraire.
L’ingénierie du quotidien valide cette orientation. Les modèles génératifs intégrés à des processus critiques (rédaction, recommandation, conseil) doivent loguer prompts, versions, décisions, seuils, escalades. Il ne s’agit pas d’archiver tout ce qui se passe, mais de conserver les inflexions stratégiques : le moment où l’IA a proposé, celui où l’humain a tranché, celui où l’enjeu a changé de périmètre. Ainsi, l’université de Columbia ou bien l’UNIGE (Université de Genève) montrent l’efficacité de patrons simples : revues cadencées (hebdo, mensuelles, trimestrielles), human-in-the-loop responsable, documentation synthétique lisible par l’utilisateur final. Ces gestes ancrent la création dans une mémoire décisionnelle.
Dans sa théorie des systèmes, Niklas Luhmann rappelait que la complexité sociale ne se résout pas par un excès de transparence brute, mais par la stabilisation des attentes. Autrement dit, il ne s’agit pas de tout voir, mais de savoir où porter son attention, quand intervenir, qui est responsable, et quelles preuves doivent être tenues disponibles. Dans ce cadre, la traçabilité n’est pas un simple enregistrement passif : elle devient un dispositif actif d’anticipation. Elle réduit l’imprévisibilité non pas en accumulant les données, mais en installant une forme, une grammaire partagée des rôles, des seuils, des actes. Cette logique ouvre la voie à des solutions techniques adaptées, comme des DAOs (Decentralized Autonomous Organizations) pour encadrer les responsabilités distribuées, ou des SBTs (Soulbound Tokens) pour associer durablement des engagements ou des habilitations à une identité donnée. Ce ne sont pas là des gadgets technologiques : ce sont des architectures sociales, codées en technique, qui prolongent une exigence de lisibilité et de responsabilité.
C’est ici que la stratégie retrouve son tempo. Loin de créer de la lourdeur, une chaîne de preuve bien pensée raccourcit la boucle de correction. Un journal exploitable, une validation horodatée, une notice versionnée, voilà ce qui permet de rejouer une décision, de la réviser, ou de la transmettre à une autre équipe sans friction. Ricœur nous aide à le comprendre en profondeur : ce n’est pas la mémoire brute qui fonde l’identité, mais la cohérence narrative des traces. Un flux bien structuré compose une intrigue d’action intelligible, qui fait de l’organisation une entité reconnaissable à travers des cas différents.
En intégrant cette logique, vous préparez une mesure publique qui ne soit pas un artefact marketing, mais une extension naturelle de vos rituels, non pour produire un KPI de performance, mais pour objectiver la fidélité narrative, la constance formelle, et la justesse contextuelle. Vous ne multipliez pas les dashboards ; vous exposez un signal sobre, lisible par l’humain, interprétable par les moteurs, et compréhensible par les IA qui indexent vos politiques.
Ainsi, ce que vous établissez, c’est une éthique de la forme. Austin, encore lui, rappelait que tout énoncé engage son auteur s’il est prononcé dans les bonnes conditions. L’auditabilité permet d’installer ces conditions dans le temps : elle maintient la mémoire des décisions, l’identité de l’acteur, la lisibilité de la promesse. Vous ne courez plus derrière l’IA pour justifier ce qui a été produit. Vous tenez un cadre d’énonciation responsable : chaque décision devient un acte habité, chaque variation une répétition au sens kierkegaardien avec la fidélité dans la forme, la constance dans l’intention.
À ce prix, l’organisation incarne alors ses décisions, engendrant ainsi un changement non seulement d’échelle, mais également paradigmatique.
II – Innover sous contrainte féconde : bashō, répétition et design de politiques
La régulation est un lieu. À la condition d’être bien pensée, elle installe une orientation, une cadence, une légitimité. Non pas en encadrant les gestes a posteriori, mais en donnant aux actions une architecture visible, anticipable, habitable. L’illusion tenace voudrait que l’innovation surgisse dans l’absence de contrainte. C’est pourtant souvent l’inverse qui est vrai : la forme précède la liberté. Ce que l’architecture donne, c’est une prise et non un carcan strict.
Ce principe se joue particulièrement bien à l’échelle du langage. Dans un environnement numérique où l’IA participe à la production de texte, d’image ou de décision, la forme n’est plus secondaire : elle devient le garant d’une fidélité. Non une fidélité nostalgique, mais une fidélité active, une manière de reformuler sans se trahir. Dans ce cadre, la contrainte n’est plus un obstacle ; elle est une opportunité de régénérer la promesse, d’en éprouver la tenue au contact des nouveaux formats. C’est ici que convergent trois lignes de force. Ces lignes s’expriment au sein du bashō narratif, ce lieu logique et vivant d’où parle la marque ; ainsi que la répétition kierkegaardienne, qui confirme l’intention sans la figer. A ces deux lignes de force s’ajoutent celle du design de politiques, qui traduit cette éthique narrative dans des gestes concrets.
La combinaison des trois permet de faire de la contrainte un opérateur de vitesse et de justesse.
II.1 – Policy as product : intégrer la règle aux parcours et au design system
Une politique utile commence dans l’interface. Elle ne vaut que si elle se rend visible au moment de l’usage, accessible sans surcharge cognitive, intégrée dans la grammaire de l’expérience. La règle, pour être performative, doit devenir forme intégrée, fonction minimale, signal compris. Autrement dit : elle doit vivre dans le produit.
Concrètement, cela veut dire que les engagements de votre politique IA (disclosure, supervision humaine, seuils de relecture, documentation opposable) ne doivent pas seulement exister dans un texte statique, mais s’incarner dans vos composants, vos workflows et vos gabarits éditoriaux. Une bannière “IA-assisté” claire et sobre, un accès lisible à la reprise humaine lorsqu’un seuil est franchi, une journalisation minimale des décisions en contexte sensible : autant de gestes discrets mais décisifs. Le récit ne flotte pas ; il s’ancre dans les éléments tangibles du parcours utilisateur.
Les organisations les plus avancées ont déjà pris ce chemin. L’Université de Genève a posé en 2024 les bases d’un cadre responsabilisant, avec un guide qui va au-delà des principes : il formalise l’obligation d’identifier clairement tout travail majoritairement généré, de signaler en interne l’usage d’IA, et de s’assurer de la compréhension des risques (hallucinations, biais, atteinte à la vie privée). De son côté, l’université de Columbia a institué une politique vivante : pas d’injection de données confidentielles hors cadre validé, divulgation de l’usage d’IA quand elle structure un livrable, vérification préalable des biais et de l’exactitude. Ce ne sont pas des recommandations éthérées ; ce sont des règles d’usage productives, que vous pouvez traduire en composants : une notice cliquable, une révision nommée, un filtre automatique, un mode restreint.
Dès que votre politique devient design, autrement dit, dès qu’elle se traduit en composants concrets intégrés à vos parcours, vous gagnez en vitesse. Ainsi, la qualité ne dépend plus d’un audit ponctuel ou d’une validation en aval : elle circule dans le flux même de la production. Ce gain tient à trois leviers. D’abord, la régularité des revues (hebdomadaires, mensuelles, trimestrielles) permet de détecter très tôt les dérives ou les zones grises. Ensuite, la visibilité des traces (prompts, décisions, escalades) rend chaque intervention compréhensible et vérifiable par l’équipe. Enfin, la clarté des rôles et des seuils d’alerte permet à chacun d’anticiper les situations sensibles plutôt que de les subir.
C’est ici qu’intervient l’architecture RAG (Retrieval-Augmented Generation). En couplant votre IA générative à une base de connaissances fermée, validée et contextualisée, vous neutralisez le risque d’hallucination et alignez automatiquement les réponses sur vos sources internes comme vos fiches produits, vos politiques éditoriales, ou encore vos principes de marque. Lorsque la requête dépasse ce périmètre ou touche à une zone à risque (juridique, éthique, réputationnel), une escalade formalisée oriente la décision vers un humain désigné, sans hésitation ni flottement. Et si le cas est sensible, par exemple, une réponse en contexte de crise ou de santé, une prise en charge humaine immédiate prend le relais.
Ce n’est plus une organisation en réaction : c’est une grammaire anticipatrice. Un système où l’IA, le processus et les humains coopèrent sans friction, chacun à sa place, chacun dans son rôle. Cette grammaire accélère l’exécution parce qu’elle donne à chaque geste une légitimité, une lisibilité et un appui solide dans la répétition. Ainsi, c’est une manière de loger la prudence dans la forme. La règle devient un lieu d’accueil : elle ne contraint pas de l’extérieur, elle porte la parole de l’intérieur. En installant vos politiques dans votre produit ou votre service, vous ne rajoutez pas un niveau de contrôle ; vous donnez à l’énoncé sa légitimité. Et vous préparez, sans le nommer, un indice de cohérence qui reflétera, sans l’inflation de KPIs, la justesse des décisions prises dans le respect d’un lieu, d’un seuil, d’une voix.
II.2 – Unité de voix : bashō et répétition kierkegaardienne
Dans un monde où la vitesse de production tend à dissoudre l’identité dans la quantité, tenir une voix juste devient un acte stratégique et éthique. Ce que vous protégez, ce n’est pas un ton figé ni une ligne graphique ; c’est un lieu d’énonciation, un bashō, au sens de Nishida : un champ logique-vivant où s’unifient l’intention, l’acte et la perception. Le bashō n’est pas une norme esthétique ni une essence cachée : c’est le plan silencieux sur lequel se décident toutes vos variations, et qui garantit que chaque reformulation, même audacieuse, reste reconnaissable comme étant vôtre.
La répétition, dans cette logique, ne consiste pas à reproduire. Søren Kierkegaard dans La Répétition l’a formulé avec acuité : « La répétition est une réalité et c’est elle qui donne sa force à tout ce qui devient ». Répéter, ce n’est pas revenir en arrière ; c’est réengager l’intention première dans une forme nouvelle, traverser les formats et les contextes sans trahir l’orientation. Ce que vous répétez, ce n’est pas un contenu, mais une fidélité active, une promesse qui trouve ses preuves dans la constance des micro-gestes et la cohérence des réponses.
Ainsi, une marque n’a pas besoin de tout dire à chaque fois ; elle doit parler depuis quelque part. Le bashō est ce quelque part. Ce n’est ni un KPI, ni une charte, ni un manifeste : c’est la source silencieuse d’où le récit puise sa justesse. C’est pourquoi l’UX éditoriale cesse ici d’être cosmétique : elle devient le lieu discret où s’éprouve l’unité narrative, non par accumulation de codes visuels, mais par la tenue d’une voix à travers ses variations.
À ce titre, chaque détail devient décisif : un libellé, une transition, une signature implicite dans une modale. J. L. Austin, en théorisant les actes de langage, nous rappelle qu’un message n’est pas simplement vrai ou faux : il est réussi ou manqué, selon qu’il satisfait ou non ses conditions de félicité. Transposé à l’interface, cela signifie que chaque micro-élément devient un énoncé ; et la moindre erreur de ton, de rythme ou de contexte peut suffire à disqualifier une prise de parole ou à briser la confiance.
C’est ici que l’UX éditoriale rejoint l’éthique. En effet, elle ne produit pas seulement une expérience agréable, mais elle engage la marque. Chaque fois qu’un wording respecte l’intelligence du lecteur, qu’une animation épouse le sens au lieu de l’éclipser, qu’une interface laisse la promesse respirer, la voix gagne en légitimité. Ainsi, loin d’être une affaire de goût ; c’est avant tout une affaire de preuve.
Et cette voix, si elle veut rester reconnaissable à travers la génération IA, doit tenir un cap. Le risque, aujourd’hui, n’est pas l’erreur technique mais l’érosion narrative : une multitude de contenus produits à la chaîne, sans lien visible entre eux, sans révision humaine qui assume la responsabilité de l’acte d’énonciation. Or, une marque ne se confond pas avec ses formats ; elle se reconnaît à la tenue de son lieu. Elle traverse les contextes parce qu’elle parle depuis un endroit assumé, et que cette répétition de la position, même discrète, est perceptible par ceux qui l’écoutent.
C’est pourquoi le bashō n’est pas l’entre relationnel de Watsuji (aidagara), ni son fūdo (le climat ou le milieu) au sens déterministe. Ces intuitions ont leur beauté, mais elles sont inopérantes quand il s’agit de piloter la fidélité d’une voix. Elles risquent d’entraîner la dilution du sujet dans les circonstances, là où la fidélité suppose une instance d’énonciation capable de dire : c’est encore moi, même ici. Il ne s’agit pas d’adapter sans cesse l’expression au climat ; il s’agit de répéter l’essentiel à travers les climats, avec la même rigueur, la même retenue, la même responsabilité. Ainsi, la cohérence du message doit rester clair dans l’espace et le temps, sans donner l’impression d’une destruction systémique.
Ainsi, une bannière « IA-assisté » bien posée, un accès clair à la reprise humaine, une cohérence dans les messages d’erreur, une cadence régulière dans l’actualisation des contenus sont des signes discrets et répétés qui vont produire cette reconnaissance. Ils disent alors sans le dire : nous savons ce que nous faisons, et d’où nous le faisons. La répétition, ici, installe une fidélité capable de traverser la transformation et non de figer celle-ci dans une statufication désuète.
Et c’est cela, précisément, qui permet de réguler sans freiner. La voix n’a pas besoin d’être partout ; elle a besoin d’être cohérente là où elle se déploie. Ce n’est pas la puissance du cri qui crée l’adhésion, c’est la tenue d’un souffle. Dans la tradition japonaise, ce souffle s’appelle parfois kokyū, la respiration juste qui permet à l’acte d’exister. En gardant le bashō comme lieu et la répétition comme méthode, vous transformez la contrainte en ligne de force. Ainsi, ce n’est pas la multiplication des variations qui vous permet de briller, mais bien de les reliez pour tenir.
II.3 – Expérimentations encadrées : growth responsable, critères d’arrêt et règles GPAI
Vous ne gagnez en liberté qu’à la condition d’en définir la forme. L’expérimentation, dans l’univers de l’IA générative, ne peut plus se concevoir comme une course brute à la variation. Elle appelle un cadre, non pour contraindre, mais pour orienter la croissance. C’est une phronèsis stratégique, capable de baliser les itérations sans briser l’élan, qui devient nécessaire. De plus, loin d’être une vue de l’esprit, c’est ce que montre le corpus réglementaire le plus récent . En effet, les règles GPAI de l’IA Act ne visent pas à ralentir, mais à répartir justement la charge de la preuve, aussi bien en amont, chez les fournisseurs ; qu’en aval, chez les déployeurs.
Concrètement, cela signifie que votre vitesse d’exécution ne dépend pas de votre hardiesse technique, mais de la solidité des points d’appui que vous sélectionnez. Un fournisseur de modèle doit désormais publier une documentation technique exploitable, expliciter ses capacités et ses limites, rendre visibles les risques systémiques, et permettre une supervision humaine à chaque étape critique. Cette transparence (lorsqu’elle est bien transmise) devient un socle opératoire sur lequel vous pouvez bâtir vos propres rituels d’expérimentation : tests limités dans l’espace, critères d’arrêt définis, journalisation native, conditions de bascule vers l’humain.
Ainsi, votre « growth hacking » cesse d’être un terrain sans règles ; il devient un art de la variation gouvernée. Cela suppose un travail méthodique : identifier, dès l’amont, la documentation disponible (cartes système, filtres, garanties sur les données), puis circonscrire le périmètre de test. Vous leur donnez une scène claire, des seuils d’arrêt, des règles d’escalade. En retour, la liberté augmente. Ainsi, chacun sait où commence et ou s’arrête l’expérimentation et comment elle est prise en charge en cas de doute.
La répétition, ici, prend tout son sens. Vous ne recommencez pas pour voir « si ça marche ». Vous rejouez un scénario éprouvé, avec des variantes précises, dans un champ maîtrisé. C’est cette structure itérative qui permet à la marque de se redire sans se contredire et d’ajuster sans dériver. Le growth, dès lors, n’est pas l’inflation des tests, mais la croissance d’une voix qui s’affine sans perdre son orientation. Vous explorez, mais vous n’oubliez jamais le bashō, ce lieu depuis lequel vous parlez et que vous ne devez pas quitter.
À cet égard, les politiques d’expérimentation prudente mises en place dans les grandes institutions, comme Columbia, que nous avons déjà évoqué précédemment, offrent un patron clair :
- ne pas injecter de données sensibles hors périmètre ;
- documenter chaque prompt et sa version ;
- divulguer l’usage d’IA lorsqu’il structure un livrable ;
- prévoir une prise en charge humaine lorsqu’un seuil est franchi.
Ces gestes, sobres, répétés, installent un régime de confiance qui ne freine pas l’innovation mais lui donne son terrain d’inscription.
Ainsi, ce régime rejoint la logique kierkegaardienne de la répétition : la fidélité est la mémoire agissante. Vous rejouez une intention dans des formes nouvelles, mais sans la dissoudre dans l’expérimentation brute. Chaque test, chaque prompt, chaque décision est un point de bifurcation. Vous pouvez trahir la voix ou bien l’approfondir par la rigueur.
La forme, ici encore, fait la liberté. Si vous journalisez, vous réduisez la charge explicative. Si vous documentez vos seuils, vous clarifiez la promesse. Si vous établissez une preuve ex ante, vous évitez les justifications ex post. Et cette forme peut être discrète : un dossier partagé, une cadence de revue, un bouton d’escalade connu, un naming cohérent. C’est peu, mais c’est tenable et transmissible.
En somme, expérimenter aujourd’hui ne consiste plus à étendre un pouvoir technique sans limites. Cela signifie tenir la parole dans un monde où la variation est la norme. Ce que vous instituez, ce n’est pas un contrôle de plus : c’est un cadre d’intelligibilité où la croissance narrative se fait sans trahison ; un lieu où la voix reste reconnaissable parce qu’elle est tenue, même dans l’accélération.
III. Rendre lisible, opposable, indexable : visibilité SEO & compréhension par les IA
Votre gouvernance IA ne prend pleinement sens que lorsqu’elle devient partageable. Elle est alors lisible pour les utilisateurs, opposable aux tiers et indexable par les systèmes. Ce n’est plus un simple enjeu de documentation, mais une grammaire publique de la confiance. Car, comme l’ont montré Max Weber et Niklas Luhmann, la crédibilité n’est jamais un fait brut. En effet, elle résulte de formes stabilisées, comme des routines visibles, des standards de responsabilité ou bien des dispositifs vérifiables, permettant à l’inconnu de devenir prévisible. Dès lors, la régulation ne doit pas viser une conformité abstraite, mais une expressivité organisée. Dès lors, ce que vous affirmez doit se montrer, se raconter, et se prouver.
Dans cette logique, l’interface devient un théâtre au sens d’Erving Goffman : un lieu où l’on rend visibles les coulisses de la décision, sans trahir l’unité du récit. Une politique IA performante ne peut pas se cacher derrière des annexes d’obscures PDF non indexable. En effet, votre politique s’incarne dans vos pages publiques, vos balisages de données, vos composants UI, vos notices et vos journaux. Ce sont ces dispositifs devant être tenus, clairement horodatés et navigables qui vont installer cette régularité perceptible permettant de vous présenter comme une organisation capable de gouverner ses propres promesses.
III.1 – Rôles, rituels et formation continue : instituer la gouvernance dans la durée
Une politique ne prend corps que si elle peut s’apprendre, se rejouer et se transmettre. En effet, ce n’est pas par l’énoncé qu’elle vit mais ai sein de son exercice. Hannah Arendt rappelait que juger, c’est apparaître devant les autres avec des raisons que l’on assume. Encore faut-il que cet acte de jugement soit rendu possible. Cela suppose des rôles clairs, des gestes reconnus, un horizon de responsabilité partagé. Ainsi naît une gouvernance vivante, qui n’empile pas les organigrammes, mais qui va structurer des actions incarnée dans des rituels concrets et des outils appropriables.
C’est précisément ce que permet une matrice RACI appliquée à l’IA. Elle ne cherche pas à surveiller mais à situer. Qui décide ? Qui exécute ? Qui conseille ? Qui doit être informé ? Ces quatre fonctions ne décrivent pas des statuts, mais des rapports dynamiques, et donc modifiables, entre les parties prenantes. Une fois cette cartographie en place, au bon niveau (par cas d’usage, par flux, par outil), chacun sait ce que les autres attendent de lui. La confiance ne dépend plus des intentions ; elle se loge dans la régularité des rôles. C’est ce que Luhmann nommait la stabilisation des attentes comme réduction de l’incertitude.
Mais pour que cette structure respire, elle doit rencontrer l’usage. Les model cards en sont la jonction : elles n’exposent pas des idéaux théoriques, mais des IA contextualisées. Elles précisent ce que fait l’outil, ce qu’il ne doit pas faire, et dans quelles conditions l’intervention humaine redevient nécessaire. À travers elles, l’organisation met en forme ses grands principes. Mieux : ces différentes cartes deviennent des supports de formation. Chaque mise à jour devient un moment de partage, chaque exception un rappel de la vigilance. La gouvernance est donc une pédagogie de la répétition.
C’est ici que Kierkegaard nous éclaire. Répéter, ce n’est pas reproduire mécaniquement ; c’est réaffirmer, depuis l’intérieur, une fidélité vivante. C’est le même geste, mais ressaisi dans un nouveau contexte, et donc revivifié. La marque, pour rester fidèle à elle-même, doit se redire sans se renier. Et cette répétition ne peut se faire sans lieu : elle suppose un bashō. A partir de ce lieu, les rôles deviennent lisibles, les gestes gouvernables, les décisions assumables. C’est l’utilisation de ces différentes briques qui permettent la création d’un plan d’unité discret et subtile, mais opérant, d’où l’action devient juste.
A cela, il faut ajouter le sensmaking collectif évoqué par Karl Weick puisque ce n’est pas l’organisation qui impose une lecture du réel, mais, et cette opposition est importante, c’est l’équipe qui, en agissant dans des repères partagés, le rend intelligible. La gouvernance IA ne consiste pas à ralentir l’innovation, mais à lui donner un cadre habitable, une forme de parole qui tienne dans le temps, sans figer, sans omettre, sans trahir.
C’est à cette condition seule que la répétition devient un levier stratégique, et non plus une entrave. Il ne s’agit donc non pas d’une simple reproduction des cadres, mais bel et bien la reprise active des conditions d’un dire juste. À partir du moment où les rôles sont lisibles, les seuils clairs et les gestes rejouables, chaque équipe peut alors interpréter l’incertitude sans improviser. La gouvernance cesse d’être un garde-fou pour devenir un espace de respiration. Mais cette respiration suppose un second pilier : la trace. Car sans mémoire opératoire et opérationnelle, aucune itération ne peut tenir dans le temps. Il faut donc maintenant aborder la chaîne de preuve, non comme un formalisme administratif, mais comme une grammaire vivante de l’action collective.
III.2 – Chaîne de preuve : journaliser pour sécuriser l’itération
Répéter sans preuve, c’est imiter. Mais journaliser, c’est faire mémoire pour mieux rejouer. Toute stratégie d’IA sérieuse, dès qu’elle prétend s’inscrire dans le temps, suppose une chaîne de trace qui articule l’innovation à la responsabilité. Ce n’est pas une exigence cosmétique du cadre européen : c’est la condition de votre vitesse future. Car plus vous multipliez les cas d’usage, plus vous avez besoin d’une mémoire fiable pour comprendre, réviser et transmettre. La trace devient alors une infrastructure de décision ; un langage structuré qui rend chaque itération interprétable.
Côté terrain, la discipline est déjà posée. À Columbia, des communautés de pratique ont éprouvé des gestes simples : utiliser une base de connaissances fermée (RAG) dès que l’exactitude prime ; relire à fréquence claire (hebdo, mensuelle, trimestrielle) ; journaliser les décisions de chaque agent ; escalader les cas hors périmètre. Chaque pratique inscrit une mémoire. Chaque validation horodatée transforme une action éphémère en preuve stable. Vous ne défendez plus vos choix après coup : vous les installez dans un récit lisible, opposable, transmissible.
Sociologiquement, c’est un changement de plan. Avec Niklas Luhmann, vous ne cherchez pas la transparence morale des intentions, mais la réduction de l’incertitude par stabilisation des attentes. L’action collective est traversée par une double contingence : chacun anticipe les réactions d’autrui sans certitude. Ce n’est pas un problème éthique ; c’est un défi structurel. Et la seule réponse durable, c’est la forme. Vos conventions de nommage, vos seuils documentés, vos règles de supervision et vos formats de journal jouent ici le rôle de micro-structures orientantes. Ils ne brident pas : ils installent une prévisibilité opératoire. Le cas d’usage devient un type. Le flux devient un patron. L’intervention humaine cesse d’être un point d’arrêt ; elle devient une boucle connue, avec ses conditions, ses déclencheurs, ses sorties.
Philosophiquement, cette logique trace une continuité de l’action — non par l’introspection ou la mémoire individuelle, mais par l’organisation collective des preuves. Paul Ricœur, dans Soi-même comme un autre, montre que l’identité n’est pas donnée une fois pour toutes : elle se tisse dans le temps, à travers une narration cohérente des actes. Il en va de même ici. Ce n’est pas l’intention qui garantit la fidélité, mais la tenue régulière de gestes inscrits. Une chaîne de preuve bien architecturée devient un récit en actes : l’organisation se reconnaît à travers ses décisions, non parce qu’elles sont toujours semblables, mais parce qu’elles se formulent dans une même syntaxe.
Ainsi, chaque élément du journal (prompt, version, validation, seuil) compose une intrigue intelligible. Cette trame visible permet à tous de reconstruire la décision, d’en discuter les motifs, d’en prolonger les effets. À terme, cette mémoire structurée soutient la crédibilité externe aussi bien que l’intelligence interne. Elle permet de répondre sans panique aux audits, de transmettre sans perte entre équipes, et de capitaliser sans ralentir.
Il faut donc penser la journalisation comme un effort de formulation. Un acte n’est pas « heureux » parce qu’il est intentionné, mais parce qu’il satisfait à ses conditions de félicité (au sens d’Austin) : contexte adéquat, autorité reconnue, reconnaissance des tiers. Appliqué ici, cela signifie qu’une trace n’est valide que si elle est lisible, datée, reliée à un rôle, et située dans une action. C’est cette exigence de forme qui permet à la répétition, au sens kierkegaardien, de ne pas devenir simple duplication, mais fidélité active à l’esprit d’une promesse.
En somme, la chaîne de preuve constitue l’ossature de l’itération. Vous gagnez en vitesse parce que vous disposez d’une mémoire structurée, capable de soutenir la révision sans alourdir la création. Or cette mémoire n’est pas simplement rétrospective : elle transforme. Elle devient le socle ontologique d’un marketing cohérent, unificateur, orienté vers son télos, ce point d’accomplissement où la promesse cesse d’être un slogan pour devenir un engagement tenu. Ainsi, vous gagnez en justesse, parce que chaque décision peut être rejouée sans contradiction. Et vous gagnez en confiance, parce que l’extérieur peut suivre la trace sans effort d’interprétation. La liberté ne surgit pas du vide : elle naît d’une forme rigoureuse, tenue, habitable. C’est cela, au fond, que vous offrez : une liberté gouvernée, parce qu’elle peut se raconter.
III.3 – Lisibilité publique : pages de politique IA, balisage et signaux de confiance
On ne gouverne pas ce qui reste invisible. Dès lors que l’IA devient un partenaire régulier des parcours utilisateurs, des processus éditoriaux, voire des décisions internes, le silence n’est plus une neutralité : c’est une perte de légitimité. Rendre lisible l’usage de l’IA, ce n’est pas répondre à une injonction réglementaire ; c’est se donner les moyens d’habiter son discours. Hannah Arendt nous l’a appris : l’espace public commence là où l’action devient visible aux autres, où l’on peut assumer ses choix devant autrui. Publier, ici, c’est prendre position, mais par la forme.
Concrètement, cette forme passe par des objets simples, mais décisifs : une page ou une section « IA et gouvernance » claire, balisée, mise à jour à cadence régulière ; un balisage sémantique accessible (type schema.org ou sitemap dédié) qui permet aux moteurs de lecture automatique comme aux intelligences génératives de comprendre le périmètre et le degré d’engagement. Les bonnes pratiques sont désormais stabilisées : mention explicite « IA-assisté » sur les contenus générés ou enrichis, mise à disposition d’un historique des versions, accès aux journaux de supervision ou aux conditions de relecture humaine, … Ces éléments ne relèvent pas de la cosmétique réglementaire. Ils incarnent, dans la structure même du site, une forme de responsabilité éditoriale.
L’Université de Genève, dans sa Position sur les IA génératives (juin 2024) et le Guide d’usage (septembre 2024), illustre cette tension féconde entre exigence et simplicité. L’institution recommande un signalement explicite de l’usage d’IA dans les productions, y compris internes, et la déclaration des travaux générés au-delà d’un seuil significatif. Mais elle n’en reste pas à la déclaration d’intention : ces exigences deviennent des éléments de structuration documentaire, des gestes d’interface et de publication. Le passage de la politique à l’interface opère ici un glissement décisif : la gouvernance sort du texte pour entrer dans le produit ou le service.
Ce déplacement engage une philosophie de la forme, au sens fort. Dans la logique kierkegaardienne de la répétition, il ne suffit pas de poser une règle une fois : il faut la reprendre dans chaque contexte, sans la figer. La cohérence n’est pas donnée ; elle est fabriquée dans la durée, par la tenue d’un discours qui se reconnaît dans ses actes. De même, le bashō est le plan d’unification d’où la parole peut advenir sans se disperser. La page ou la section de gouvernance, ici, devient ce lieu. Elle n’est ni un résumé ni une clause. Elle est le signe que l’organisation assume une position publique, vérifiable, habitable par d’autres.
Austin, enfin, nous avertit : tout énoncé engage une responsabilité. Publier une mention, c’est déjà faire acte. Mais pour qu’un tel acte soit « heureux », encore faut-il qu’il respecte ses conditions de félicité : autorité reconnue, contexte adéquat, réception intelligible. C’est pourquoi ces éléments publics doivent s’inscrire dans une grammaire éditoriale claire, éprouvée, transmise. Une promesse ne vaut que par sa capacité à être relue. Une politique ne vaut que par sa capacité à être retrouvée, indexée, invoquée.
Dans cette perspective, l’oubli n’est plus une simple négligence : c’est un défaut de structure. Une entreprise qui revendique une gouvernance IA mais ne publie rien, ne balise rien, ne met à jour aucun document, génère un paradoxe stratégique : elle parle sans que ses actes puissent être retrouvés. Et dans un écosystème piloté par des IA de plus en plus interprétatives, l’absence d’indice visible équivaut à un silence algorithmique — vos contenus ne sont ni compris, ni transmis, ni recommandés. Vous devenez inaudible dans un monde lisible.
À l’inverse, lorsque votre page de gouvernance articule vos engagements, relie vos documents de preuves, rend accessible la chaîne de décision et de supervision, vous installez un cercle vertueux : les IA peuvent relier les balises à vos actions, les moteurs reconnaissent votre discours comme fiable, vos utilisateurs disposent d’un signal faible mais décisif de votre sérieux. Le sens passe alors par la structure. La visibilité devient consistance. Et votre discours ne surplombe plus l’action : il l’habite.
Conclusion – L’architecture d’un dire responsable
Réguler l’IA sans la freiner, ce n’est pas opposer contrôle et innovation. C’est refuser les automatismes binaires pour construire un cadre où la technologie trouve sa place sans usurper la voix. Cela suppose de gouverner par la forme, non par la contrainte. Car la liberté, dans toute interaction augmentée, réside dans la clarté de celles qu’on choisit, qu’on assume et qu’on incarne.
Dans cette perspective, la forme devient fond qui délimite sans cloisonner en rendant l’action relisible permettant d’engager sa voix sans s’effacer. De Kierkegaard à Austin, de Nishida à Arendt, un même fil s’impose. La responsabilité commence là où le dire peut se tenir. Il ne s’agit pas d’aligner des procédures, mais de permettre une répétition habitée, un geste éthique dans chaque usage. Et c’est cette cohérence vivante, ce bashō narratif où la marque parle depuis un lieu stable et reconnaissable, qui devient lisible pour les humains… et pour les intelligences artificielles.
Les organisations qui embrassent cette exigence ne ralentissent pas l’innovation. Ainsi, elles en définissent l’orientation. Elles construisent une souveraineté narrative qui soutient leur stratégie. Et lorsque cette souveraineté est visible, traçable, transmissible, elle devient un avantage compétitif durable, une promesse tenue dans le temps.
Si vous souhaitez accompagner cette mutation de fond, donner à votre gouvernance IA une voix cohérente, lisible et alignée sur votre vérité de marque, je vous propose de prendre rendez-vous via l’offre Télos. Nous travaillerons ensemble à crédibiliser vos discours, aligner vos actions, et faire de vos valeurs perçues un capital stratégique assumé. Vous pouvez également remplir le formulaire suivant pour que je puisse vous recontacter.
Foire aux questions (FAQ)
Parce que toute production de texte, d’image ou de recommandation par une IA engage un point de vue, même si elle est assistée. Dans une organisation, ces énoncés ne sont jamais neutres : ils s’inscrivent dans un cadre, portent une promesse, et deviennent des actes à part entière. Comme l’a montré J. L. Austin, dire, c’est faire.
Elle exige que chaque usage d’IA soit justifié par une finalité explicite et qu’une supervision humaine puisse être démontrée. Cela ne ralentit pas l’innovation, mais l’oblige à s’inscrire dans une architecture responsable avec des preuves, des rôles, et des seuils définis. Ce cadre structure la confiance au lieu de la décréter.
Cela signifie journaliser les décisions, documenter les prompts, tracer les validations humaines et rendre ces éléments opposables. L’objectif est que chaque sortie IA puisse être reliée à une intention, une autorité, et une relecture. La preuve devient une infrastructure de confiance et un accélérateur d’innovation.
Parce que ces concepts offrent des repères puissants pour penser la cohérence narrative. Le bashō (chez Nishida) désigne le lieu d’où la parole tire sa légitimité. La répétition (chez Kierkegaard) n’est pas la copie, mais la fidélité active : rejouer une intention dans une forme adaptée. C’est exactement ce que doit faire une gouvernance IA cohérente.
Télos est un accompagnement stratégique pour les entreprises souhaitant aligner leurs politiques IA avec leur vérité de marque. Il ne s’agit pas d’un audit technique, mais d’un travail sur la cohérence narrative, la performativité du langage, la crédibilité des promesses et l’architecture des preuves. Le but : faire de la conformité une opportunité de souveraineté éditoriale.