On en parle Hôpital public : reprendre la main sur ce que l’IA dit à vos patients

L’IA s’impose désormais comme un nouvel intermédiaire dans la recherche d’information de santé. Avant ou après une consultation, les patients l’utilisent pour comprendre des symptômes, interpréter un diagnostic, reformuler un compte-rendu, comparer des options thérapeutiques ou décider s’il faut consulter. Elle ne remplace pas le médecin, mais elle réduit l’errance informationnelle en jouant un rôle de copilote informationnel, de tiers de compréhension et parfois d’orientation dans le parcours de soins.

Pour l’hôpital public, cette évolution change la donne. La confiance ne se construit plus uniquement dans la consultation ou dans la prise en charge, mais aussi dans la qualité de l’information disponible en amont. Si l’établissement ne publie pas une information claire, structurée, pédagogique et maintenue dans le temps, d’autres sources occuperont l’espace : plateformes privées, forums, contenus généralistes ou réponses peu contextualisées fournies par les IA.

L’enjeu n’est donc pas seulement d’avoir un bon site, mais de devenir une source fiable que les IA peuvent lire, reformuler et restituer correctement. Cela suppose de produire des contenus utiles aux patients : parcours de soins, domaines d’expertise, examens, traitements, consignes, garanties de qualité et de sécurité, éducation thérapeutique, annuaires, points de contact.

Notre position est claire : l’IA n’est ni une menace ni une fin en soi. C’est un outil au service d’une information plus lisible, plus juste et plus accessible, à condition d’être encadré, transparent et strictement limité dès que commencent les données de santé personnelles. Notre rôle consiste donc à concevoir des écosystèmes digitaux capables d’informer les usagers et de rendre cette information exploitable par les IA, dans une logique de confiance, de responsabilité et de service public. Chez nous, cette approche s’inscrit dans une logique d’IA responsable : propulser l’information publique de santé, sans jamais franchir la frontière de la confidentialité ni brouiller la responsabilité clinique.

(TEMPS DE LECTURE : 8’20)

Aux États-Unis, un tiers des adultes déclare avoir utilisé une IA pour de l’information ou du conseil en santé au cours de l’année écoulée.
Et parmi ces usages, on retrouve déjà des demandes très concrètes : symptômes, explication d’examens, compréhension d’un diagnostic, comparaison de traitements, aide à décider s’il faut voir un médecin.

Le basculement est important, car il déplace le premier moment de confiance. Pendant longtemps, ce premier réflexe passait par Google, les sites santé, les forums, parfois les réseaux sociaux.

Désormais, il passe aussi par une conversation. Or cette conversation est jugée pratique avant d’être jugée fiable : parmi les utilisateurs d’IA pour la santé, 48 % la trouvent très pratique et 41 % facile à comprendre, mais seuls 18 % jugent l’information très exacte. Autrement dit, l’IA gagne la bataille de l’accessibilité avant (très ?) prochainement de gagner celle de la crédibilité.

Le premier réflexe patient est en train de changer.

Ce point mérite d’être pris au sérieux par l’hôpital public.

Car ce que cherche le patient, ce n’est pas d’abord un acte médical. C’est d’abord une mise en sens. Il veut comprendre ce qu’il vit, qualifier une inquiétude, décoder un mot technique, savoir si une prise en charge existe près de chez lui, ce qu’elle implique, à quel rythme, avec quel niveau d’expertise, quels délais, quelles étapes, quels signaux d’alerte.

L’IA s’installe précisément dans cet espace intermédiaire, entre la question brute et la décision de soin.

C’est là que se joue la nouveauté.

L’IA ne devient pas le médecin du patient. Elle devient son copilote informationnel.

Elle n’établit pas le soin, mais elle reformule, hiérarchise, vulgarise, contextualise. Elle devient une interface d’orientation, parfois d’apaisement, parfois d’accélération. Dans le sondage KFF, 16 % des adultes disent déjà l’avoir utilisée pour décider s’il fallait consulter. Ce chiffre est encore plus structurant que l’usage lui-même : il montre que l’IA ne pèse pas seulement sur la compréhension du soin, mais sur l’entrée dans le parcours.

L’IA ne remplace pas le diagnostic.
Elle remplace l’errance informationnelle.

C’est la ligne de partage la plus utile. Le débat public caricature souvent l’IA en santé entre deux excès : soit la machine qui va diagnostiquer à la place du médecin, soit l’outil dangereux dont il faudrait se méfier par principe.

En pratique, le cœur du sujet est ailleurs. Le vrai terrain de déploiement grand public, aujourd’hui, c’est l’avant, le pendant et l’après de la consultation : compréhension des symptômes, préparation d’un rendez-vous, appropriation d’un compte-rendu, reformulation d’un diagnostic, explication d’un traitement, pédagogie sur un parcours, rappel des consignes, orientation dans l’offre de soins, éducation thérapeutique.

Cela ouvre un espace stratégique pour les établissements. Si vos contenus n’occupent pas cet espace, d’autres le feront à votre place : contenus généralistes, plateformes privées, corpus anglo-saxons, forums, réponses statistiques mal contextualisées. Le sujet n’est donc plus seulement d’avoir un bon site. Le sujet est d’être la source que les IA vont lire, citer, reformuler et restituer.

La confiance ne se décrète pas.
Elle se documente.

Il ne faut pas idéaliser ces usages. Les études récentes rappellent que les modèles généralistes restent fragiles dès qu’on leur demande un raisonnement clinique rigoureux.

Une étude menée par Mass General Brigham sur 21 modèles montre qu’ils arrivent souvent au bon diagnostic final quand toute l’information pertinente leur est fournie, mais qu’ils restent en difficulté dans les étapes amont du raisonnement, notamment pour construire des hypothèses différentielles robustes. Une autre étude du même écosystème de recherche a montré qu’un système expert dédié au diagnostic pouvait encore faire mieux que des grands modèles conversationnels généralistes sur des cas cliniques, avec ou sans données de laboratoire.

Pour les patients, cela appelle une conséquence simple : l’IA peut être utile pour comprendre, mais elle ne doit jamais être présentée comme une autorité clinique autonome. D’ailleurs, même dans les usages déclarés, le relais humain reste central : 58 % des adultes ayant utilisé une IA pour un sujet de santé physique disent avoir ensuite consulté un professionnel.

Le problème à cette heure n’est donc pas que l’IA remplace déjà massivement le soin. Le problème est qu’elle s’insère en amont, parfois sans cadre, parfois sans médiation, parfois sans que l’établissement de santé ait préparé ce terrain.

L’hôpital public doit devenir une source, pas seulement une destination.

À l’échelle mondiale et européenne, tout converge vers cette idée : l’IA en santé se diffuse vite, mais la confiance reste insuffisamment structurée. Dans la Région Europe de l’OMS, 32 pays sur 50 déclarent déjà utiliser l’IA pour le diagnostic assisté, et la moitié ont introduit des chatbots pour l’engagement et l’accompagnement des patients. Dans le même temps, 86 % des pays pointent l’incertitude juridique comme principal frein, et moins d’un pays sur dix dispose de standards clairs de responsabilité en cas d’erreur. Nous sommes donc dans une phase d’adoption rapide, mais encore incomplètement sécurisée.

Côté français, la HAS pousse exactement dans ce sens : construire un cadre de confiance, accompagner les usages pertinents, mieux informer sur les performances et les limites des systèmes, et intégrer ces sujets aux exigences qualité des établissements. Elle rappelle aussi que beaucoup de systèmes d’IA utilisés en santé sont aujourd’hui hors du champ d’évaluation qui éclaire le remboursement, ce qui signifie que patients et professionnels peuvent s’en servir sans être pleinement informés de leurs capacités réelles ou de leurs limites.

Concrètement, cela veut dire qu’un établissement public ne doit pas seulement publier des contenus. Il doit publier des contenus lisibles par les humains et actionnables par les IA.

Cela suppose des pages d’expertise claires, des parcours de prise en charge compréhensibles, des explications pédagogiques sur les examens et traitements, des FAQ bien structurées, des contenus d’éducation à la santé, des annuaires fiables, des consignes pré et post prise en charge, des informations sur la qualité et la sécurité des soins, des signaux d’orientation explicites, des métadonnées propres, une information maintenue dans le temps.

Le vrai sujet n’est pas l’outil. C’est la propulsion de l’information.

C’est précisément là que notre lecture change la donne. Pour nous, l’IA n’est pas un adversaire du web public. Elle est un accélérateur de ses exigences. Un écosystème digital bien conçu doit désormais remplir deux fonctions en même temps : informer directement les usagers, et rendre cette information exploitable par les moteurs et les agents conversationnels qui deviennent leur premier point d’entrée. En d’autres termes, le SEO et la découvrabilité par l’IA ne sont plus deux chantiers séparés. Ils reposent largement sur les mêmes fondamentaux : qualité éditoriale, structuration, fraîcheur, explicitation des sources, clarté des intitulés, cohérence sémantique, accessibilité et robustesse technique.

Cette bascule est décisive pour l’hôpital public. Car la qualité perçue des soins ne se joue plus seulement dans le bloc, la consultation ou le service. Elle se joue aussi dans la manière dont le patient comprend ce qui lui arrive. Un parcours bien expliqué rassure. Une expertise bien décrite crédibilise. Une information claire sur les délais, les étapes, les équipes, les équipements, les risques, les suites et les contacts réduit l’anxiété. L’IA amplifie ce mécanisme : elle peut dégrader la confiance si elle reformule un vide, mais elle peut aussi renforcer la relation hôpital-patient si elle reformule une information solide, précise et publique.

Le tiers de confiance ne sera pas une machine seule. Ce sera une relation à trois bien conçue.

Oui, un troisième acteur s’installe entre l’établissement et le patient. Mais il faut le nommer correctement. L’IA n’est pas un tiers de soin. Elle peut devenir un tiers d’information, parfois un tiers de compréhension, parfois un tiers d’orientation. Et cette place n’est acceptable que si elle reste bornée : pas d’intrusion dans l’intimité des dossiers, pas de confusion sur la responsabilité clinique, pas de promesse de diagnostic autonome, pas d’opacité sur les contenus utilisés, pas de brouillage entre information générale et conseil médical individualisé.

Le cadre européen va dans cette direction. La Commission européenne rappelle que l’AI Act, l’EHDS et les autres briques réglementaires doivent favoriser un déploiement sûr, équitable et digne de confiance de l’IA en santé. Dans le Pacte IA, les engagements volontaires mis en avant portent d’ailleurs sur trois socles très concrets : gouvernance, cartographie des systèmes à risque et montée en compétence des équipes. Ce triptyque est aussi une bonne grille de lecture pour les établissements publics.

Notre position est simple : mettre l’IA au service de la preuve, pas du flou.

Chez Stratis, nous avons fait un choix clair.

Nous ne pensons pas que l’IA doive opacifier la relation au service public. Nous pensons qu’elle doit la rendre plus lisible, plus explicable et plus utile. Notre approche repose sur quelques principes simples : souveraineté, transparence, sécurité, maîtrise des données et bénéfice utilisateur.

Nous sommes signataires d’une charte pour une IA de confiance, et nous intégrons l’IA comme une brique de service, jamais comme un gadget autonome.

Cela change la manière de concevoir les écosystèmes hospitaliers.

Nous ne travaillons plus seulement la présence en ligne d’un établissement. Nous travaillons sa capacité à produire une information experte, compréhensible, structurée, réutilisable et diffusable.

Nous développons des outils d’IA pour rédiger, vulgariser, adapter et mieux référencer les contenus, mais aussi des logiques conversationnelles capables de s’appuyer sur vos ressources maîtrisées. L’enjeu n’est pas d’exposer des données de santé. Il est de mieux propulser des contenus publics de qualité : domaines d’excellence, parcours, modalités d’accès, consignes, expertise médicale, éducation thérapeutique, garanties de sécurité et de qualité.

Là où commence la confidentialité, notre stratégie IA change de régime. Là où s’exprime l’information publique de santé, elle devient au contraire un levier très puissant.

Le nouvel accompagnant santé est déjà là. Reste à lui donner de bonnes sources.

Le sujet n’est donc plus de savoir si les patients vont utiliser l’IA. Ils l’utilisent déjà.

Le sujet est de savoir qui va nourrir les réponses qu’elle leur renvoie.

Pour l’hôpital public, c’est une responsabilité éditoriale, technique et stratégique.

Car dans les années qui viennent, la qualité d’un écosystème digital se mesurera aussi à sa capacité à faire circuler une information de santé juste, intelligible et vérifiable dans ces nouveaux espaces conversationnels. L’IA ne remplacera ni le diagnostic, ni la consultation, ni la relation de soin.

Mais elle devient bel et bien le nouveau sas d’entrée de la compréhension. Et c’est précisément pour cela qu’elle doit être pensée, encadrée et alimentée par des établissements qui savent ce qu’ils disent, pourquoi ils le disent, et pour qui ils le disent.