Parce qu’elle promet de transformer la connaissance en geste simple.
Depuis des années, le quotidien numérique des Acteurs Publics ressemble à une chasse : chasser la bonne version d’un document, chasser la réponse déjà donnée l’an dernier, chasser la phrase “qui passe” juridiquement, chasser la procédure mise à jour.
L’IA générative donne l’illusion de supprimer la chasse en un clic. En réalité, elle vous propose mieux : une nouvelle manière d’accéder à votre propre savoir, plus directe, plus lisible, plus partageable. À condition de lui donner un terrain stable.
Sinon, elle devient une machine à produire du plausible, et le plausible est précisément ce que vous ne pouvez pas vous permettre.
Un excellent premier jet, jamais une vérité garantie.
L’IA est brillante quand elle prépare, reformule, structure, simplifie.
Elle est dangereuse quand on lui demande d’arbitrer, de qualifier un droit, de “décider” à la place d’un cadre ou d’un agent. Si vous la placez au bon endroit, elle devient un amplificateur d’efficacité.
Si vous la placez au mauvais endroit, elle devient un amplificateur de risques.
A Stratis, nous conseillons de la considérer comme un “atelier de production” : elle fournit des brouillons et des pistes, vous fournissez l’autorité, la nuance, la validation.
Une astuce simple change la qualité : ne lui demandez pas “réponds”, demandez-lui “prépare une réponse à valider”. Le mot “à valider” réinstalle l’humain au bon endroit, et l’IA se met naturellement au service du contrôle.
Dans la recherche et la synthèse, plus que dans la rédaction.
On imagine souvent que l’IA fait gagner du temps parce qu’elle écrit vite. En pratique, le temps perdu ne se situe pas seulement dans l’écriture. Il se situe dans l’avant : chercher, comparer, hésiter, vérifier, retrouver.
Une IA bien cadrée devient un moteur de lecture et d’assemblage. Elle vous ramène les bons passages, vous en fait une synthèse, vous propose une trame. Le gain est là : moins de dispersion, moins de “je crois que”, plus de cohérence.
A Stratis, nous démarrons souvent par des cas d’usage discrets mais redoutablement efficaces : synthèses de dossiers longs, préparation de comptes rendus, consolidation de réponses types, et surtout recherche documentaire guidée. Ce sont des usages qui ne font pas de bruit, mais qui libèrent des heures.
En lui imposant la preuve, ou le silence.
L’hallucination n’est pas une panne. C’est un comportement normal d’un modèle qui “complète” le texte. La seule réponse mature consiste à encadrer la production : soit l’IA s’appuie sur une source autorisée et la rend visible, soit elle s’abstient et oriente. C’est une bascule mentale importante : vous ne cherchez pas une IA éloquente, vous cherchez une IA vérifiable.
Astuce d’écriture qui fonctionne très bien : demandez-lui d’ajouter, à la fin de chaque réponse, une ligne du type “Ce point doit être vérifié ici : …”. Cette simple contrainte améliore la prudence du modèle, et rend vos agents plus attentifs à la chaîne de preuve.
D’abord mettre de l’ordre, sinon vous industrialisez le désordre.
Poser une IA sur une base documentaire obsolète, c’est comme installer un turbo sur un moteur mal réglé. Vous irez plus vite, mais pas au bon endroit.
Le travail rentable, le vrai, consiste à identifier vos contenus de référence : ceux qui font foi, ceux qui engagent, ceux qui doivent être à jour. Puis à leur donner une vie : un propriétaire, une date de revue, une version, une place unique.
A Stratis, nous aimons une approche très simple : peu de contenus, mais fiables. On préfère dix pages impeccables, vivantes, datées, plutôt que mille pages “quelque part”. L’IA se nourrit mieux du solide que de l’abondant.
En misant sur l’orientation, pas sur la décision.
Pour les usagers, l’IA est précieuse quand elle clarifie : étapes d’un parcours, pièces à fournir, délais, vocabulaire, erreurs fréquentes, canaux. Elle est beaucoup plus sensible dès qu’on touche à l’éligibilité, aux cas particuliers, aux décisions qui ont un impact. Là, la bonne stratégie consiste à réduire le renoncement, pas à “trancher”.
Une astuce très concrète consiste à transformer l’IA en outil de questionnement : avant de répondre, elle pose deux ou trois questions de clarification. Elle devient un guide de parcours, pas un distributeur de verdicts.
Et si la demande dépasse son périmètre, elle bascule vers un humain, en transmettant un résumé clair. Chez nous, c’est un levier puissant : vous améliorez l’expérience sans créer une illusion de décision automatisée.
Séparer le modèle, les données, et les actions, puis tout tracer.
Le mot “chatbot” trompe. Il fait croire qu’il suffit de brancher une bulle de discussion. Une IA utile ressemble plutôt à un dispositif en trois couches : le modèle qui produit du texte, une couche de connaissances qui apporte les sources, et une couche d’outils qui exécute éventuellement des actions simples, toujours sous contrôle. Ce découplage est essentiel : il empêche le modèle d’avoir accès à tout, et il permet d’auditer ce qui s’est passé.
A Stratis, nous insistons sur la traçabilité comme sur une ceinture de sécurité : question posée, sources consultées, réponse produite, corrections, validations. Sans trace, pas d’amélioration. Sans trace, pas de confiance.
Elle ouvre une nouvelle surface d’attaque, et une nouvelle façon de se tromper.
Il y a des risques visibles, comme la fuite de données. Et des risques plus subtils, comme l’injection de consignes malveillantes dans des contenus consultés par l’IA, ou la production de réponses “très convaincantes” mais fausses. Avec l’IA, l’erreur prend parfois la forme d’une belle phrase. C’est précisément ce qui la rend dangereuse : elle ne “sonne” pas faux.
L’astuce la plus simple, et souvent la plus efficace, consiste à définir clairement ce que l’IA n’a pas le droit de faire. Puis à l’entraîner à refuser proprement, en orientant. Une IA qui sait dire non, avec élégance, vous protège autant qu’elle vous aide.
En gouvernant les usages, pas la technologie.
On croit qu’il faut une “grande gouvernance IA”. En réalité, il faut une gouvernance des cas d’usage, des données, et des preuves. Le reste suit. Concrètement, vous avez besoin d’un sponsor métier qui arbitre, d’un responsable des contenus de référence, d’un regard sécurité, et d’un pilotage produit. Pas forcément plus. La clé est la régularité : une revue mensuelle des usages, des incidents, et des contenus qui vieillissent.
A Stratis, nous observons que la gouvernance réussit quand elle tient en une page : périmètre autorisé, données interdites, règle de preuve, et procédure de correction. Quand c’est lisible, c’est appliqué.
En achetant des garanties et de la réversibilité, pas une démo séduisante.
Le marché vous montrera des interfaces brillantes. Vous devez regarder ailleurs : comment vos données sont isolées, comment les journaux sont gérés, comment les sources sont citées, comment l’outil se corrige, et surtout comment vous en sortez. La réversibilité n’est pas un détail contractuel, c’est une condition de souveraineté opérationnelle.
En formant à l’art de demander et à l’art de vérifier.
L’IA n’est pas un outil qu’on “apprend” comme un logiciel. Elle se pratique. Les équipes ont besoin de deux réflexes : savoir donner un contexte et des contraintes, et savoir relire avec méthode. Quand on leur donne ces clés, l’adoption suit, parce que la valeur est immédiate. Quand on ne le fait pas, on observe deux dérives symétriques : la méfiance totale, ou l’usage aveugle.
A Stratis, nous aimons constituer une petite bibliothèque vivante : des prompts éprouvés, des modèles de réponses validés, des exemples de “bons contrôles”. C’est simple, mais cela évite que chacun réinvente sa manière d’utiliser l’IA, avec des résultats inégaux.
Trois usages, une base de sources maîtrisée, des métriques, puis seulement l’élargissement.
Les déploiements “grand soir” échouent souvent. Les déploiements progressifs réussissent souvent. L’objectif des 90 jours n’est pas de tout faire. C’est de prouver une valeur, de construire une confiance, et de mettre en place les garde-fous. Choisir quelques usages à forte fréquence et faible risque, travailler la qualité des sources, imposer la règle de preuve, mesurer le temps gagné, et apprendre vite. Ensuite, vous élargissez, avec une organisation qui a déjà pris le pli.
A Stratis, c’est exactement ce que nous faisons : nous préférons une IA modeste et solide, qui tient ses promesses, plutôt qu’une IA flamboyante qui vous met en risque.
Ce serait celle-ci : l’IA générative n’est pas un raccourci vers la décision, c’est un raccourci vers la clarté.
Elle vous aide à retrouver, comprendre, formuler, et orienter.
Mais elle exige, en échange, une discipline : des contenus de référence, une règle de preuve, des refus assumés, et une traçabilité.
C’est à ce prix que vous obtenez le meilleur des deux mondes : la vitesse, sans l’imprudence.