L’IA générative en santé : oui, avec un usage responsable
Les systèmes d’intelligence artificielle (IA) générative, tels que Mistral AI, CoPilot ou ChatGPT, se démocratisent à vitesse grand V. Faciles d’accès et de prise en main, des outils se développent également dans le secteur sanitaire, social et médico-social avec de nombreuses applications. Leur utilisation induit toutefois des risques qu’il convient de maitriser. La Haute Autorité de santé (HAS) publie des premières clés d’usage de l’IA générative en santé destinées aux professionnels, qu’ils soient experts ou non du sujet. Le guide volontairement concis se structure en 4 lignes directrices accompagnées d’exemples issus du terrain. Une fiche sur l’utilisation de l’IA générative en santé par les usagers viendra compléter ces travaux.
Mistral AI, CoPilot, ChatGPT… De plus en plus de personnes les utilisent au quotidien dans un cadre personnel, mais aussi professionnel, essentiellement pour gagner du temps. Les outils de ce type sont désignés sous le terme de systèmes d’IA générative. Ils sont capables de générer un contenu (texte, image, son, vidéo…) en réponse à une question posée ou à une demande de tâche à effectuer (ces requêtes sont désignées sous le nom de « prompts »). Le système analyse alors un grand nombre de données accessibles en ligne ou fournies par l’utilisateur afin de générer un contenu cohérent.
Dans le secteur sanitaire, social et médico-social, les usages professionnels de ce type d’outils se multiplient. Certains d’entre eux ne sont pas spécifiquement développés pour un usage dans un contexte de santé. Parallèlement, des technologies dédiées se développent et entrent également dans les pratiques : transcription de conversations lors de consultations, élaboration de synthèses de littérature scientifique ou encore de documents illustrés d’images pour expliquer des parcours médico-sociaux. Ces systèmes d’IA générative sont potentiellement prometteurs. Ils pourraient permettre de libérer du temps à dédier aux soins et accompagnements, améliorer la qualité de vie au travail et favoriser la qualité des pratiques professionnelles.
Les professionnels ne sont cependant pas toujours pleinement éclairés sur les performances et les limites des outils qu’ils utilisent. Leurs usages peuvent induire des risques si des précautions ne sont pas mises en place. En particulier, le contenu généré peut comporter des erreurs en se fondant sur des données non vérifiées ou en les dissimulant dans un contenu qui semble convaincant (on parle « d’hallucinations »). Des mauvaises pratiques sont aussi observées comme la transmission d’informations confidentielles. L’absence d’évaluation de l’utilité et de la pertinence de ces systèmes en santé peut enfin limiter la confiance des professionnels. Dans ce contexte, la HAS publie un guide pédagogique volontairement concis afin de favoriser le bon usage de l’IA générative en santé et le déploiement dans le secteur sanitaire, social et médico-social des systèmes utiles et performants. Une fiche listant les points clés du guide est également mise à disposition.
Le bon usage de l’IA générative en santé se fait AVEC le professionnel
La HAS propose 4 lignes directrices : A.V.E.C. Pour favoriser une approche didactique et pragmatique, ces lignes directrices sont déclinées en clefs d’usage que tout professionnel peut mettre en place facilement, systématiquement illustrées par des exemples issus du terrain.
- A pour Apprendre: le professionnel s’approprie le fonctionnement et l’utilisation du système d’IA générative. Exemples : le professionnel se renseigne sur l’IA générative via des sources fiables, se forme sur les modalités d’utilisation notamment sur les règles liées à la confidentialité des données personnelles et de santé, s’interroge sur ses besoins pour s’orienter vers un système adapté, effectue des tests en pratique réelle…
- V pour Vérifier: le professionnel est attentif à la pertinence de son usage, à la qualité de sa requête et au contrôle du contenu généré. Exemples : le professionnel veille à ne pas partager d’informations confidentielles, à considérer chaque contenu généré comme une proposition pouvant contenir des erreurs à vérifier (valeurs et unités des quantités chiffrées, noms des médicaments…). Il est attentif au coût environnemental de l’IA et conserve une part de pratique réalisée sans l’IA générative.
- E pour Estimer: le professionnel analyse au cours du temps la qualité et l’adéquation aux besoins du système d’IA générative. Exemples : le professionnel se fixe des objectifs et réinterroge la pertinence de ses usages en prenant en compte le nombre de corrections faites, la facilité d’utilisation ou encore l’intégration au flux de travail dans un objectif d’amélioration organisationnelle.
- C pour Communiquer: le professionnel échange avec son écosystème dans une démarche d’amélioration continue. Exemples : le professionnel échange dans un langage adapté avec le patient ou la personne accompagnée autour de l’usage d’un système d’IA générative. Il favorise autant que possible les retours d’expériences avec d’autres utilisateurs afin de ne pas rester seul devant ces outils, il développe une démarche de transparence autour des typologies de données partagées, de l’adhésion au sein de sa structure et des impacts organisationnels…
Chaque usage doit être conscient, supervisé et raisonné. Bien maîtrisée, l’IA générative peut ainsi devenir une alliée au service de la qualité et de la sécurité des soins et accompagnements.
Nous contacter
-
Mohamed Bouhadda - Chef du service presse
Marina Malikité - Attachée de presse - 01 55 93 73 52
Stéphanie Lecomte - Attachée de presse - 01 55 93 73 17
Caroline Dubois - Attachée de presse - 01 55 93 73 13
-
contact.presse[at]has-sante.fr
Ces n° sont réservés aux journalistes, nous ne sommes pas habilités à répondre aux autres demandes.
- Nous contacter
