Le couple intelligence artificielle / données de santé permettra-t-il d’accélérer les progrès en matière de santé ? N’est-il au contraire qu’un levier pour industrialiser et automatiser la relation patient-médecin ? La question suscite débats et controverses, au sein même du monde médical.
La technologie n’est plus ce qu’elle était ! Hier, elle était synonyme de progrès. Aujourd’hui, elle est de plus en plus critiquée, accusée de déshumaniser les relations et de retirer de la liberté. Le champ de la santé n’échappe pas à ce phénomène de société. Alors, l’avenir de la santé sera-t-il radieux ou anxiogène ? L’objectif n’est bien sûr pas de trancher le débat ! En revanche, il est essentiel de bien comprendre les risques et les opportunités offertes par la technologie, ainsi que des moyens à mettre en oeuvre pour éviter les dérives possibles.
LE RISQUE DE DÉSHUMANISATION ET DE PERTE DE COMPÉTENCES MÉDICALES
Plus les données de santé croissent, plus il devient aisé de les traiter et, avec l’aide de l’intelligence artificielle, d’en tirer des enseignements utiles pour la pratique médicale… Jusqu’à suppléer les médecins ? C’est ce que certains craignent ! A quoi bon ausculter le patient alors qu’une IA performante est capable d’effectuer un diagnostic fiable, en minimisant les risques d’erreur ? À quoi bon former les médecins s’il est possible d’effectuer un diagnostic et de sortir une prescription en mode automatisé ? Ces questions peuvent se poser… si l’on oublie que la relation de confiance entre le patient et médecin est au coeur de l’efficacité du soin. Autrement dit, s’appuyer à outrance sur l’IA peut engendrer des effets indésirables grave. En termes de prévention, rien n’est en effet plus puissant que les recommandations d’un médecin de confiance. L’autre risque est que les médecins deviennent dépendants des machines et perdent ainsi en compétences.
LA CRAINTE DU « BIG BROTHER »
Le corollaire de la multiplication du volume des données de santé est la peur du « big brother », c’est-à-dire l’omniprésence des géants du web qui viendraient mettre à mal les libertés individuelles. Peur que la machine ne prenne le contrôle sur les corps avec les objets connectés, peur que les assureurs n’aient accès à des scénarios prédictifs sur notre santé, sans même que nous en soyons informés. Certains continuent de s’inquiter, en dépit des garde-fous règlementaires, notamment le RGPD.
LE RISQUE LIÉ À LA FIABILITÉ DES ANALYSES
L’IA pourrait-elle être défaillante dans ses analyses ? Cette étude publiée dans la revue scientifique JAMA (Journal of the American Medical Association) 20 pourrait donner à le penser. Cette dernière évoque le cas d’un programme IA devant décider de l’hospitalisation de malades atteints de pneumonie. Le programme a conclu que les patients atteints d’asthme avaient moins besoin d’être hospitalisés, le risque de décès par pneumonie étant plus faible. En réalité, les concepteurs de l’algorithme avaient omis de préciser que si le risque de mortalité était plus faible, c’était justement parce que les pa-tients étaient mieux pris en charge à l’hôpital.
Comment éviter le scénario « Black Mirror »
Pour éviter les risques liés à la technologie, il est bien sûr souhaitable de se doterde garde-fous. Une bonne nouvelle : ils existent et ils sont plutôt simples à mettre en œuvre. Préserver l’examen clinique et jouez le couple IA+humain C’est le meilleur garant pour un diagnostic performant. Sur le cancer du sein, une étude22 menée par l’association Humain/IA a montré que le taux de réussite dans la détection du cancer du sein était de 99,5% en couplant examen médical et IA. Avec l’IA seule, elle n’est « que » de 92%. 2. Orchestrer une souveraineté européenne pour protéger le donnéeC’estC’est le rôle de l’UE… qui avance à marche forcée sur le sujet, avec le RGPD et, bientôt, des exigences nouvelles pour l’hébergement des données en Europe.3. Penser éthique et certification« L’utilisation des IA doivent passer par des processus de validation interne, d’essais cliniques et de certification » : c’est Joris Galland, médecin interne au CH de Bourg-en-Bresse qui le dit. Les processus de validation interne ne peuvent pas faire l’impasse d’une réflexion au sein des Comités d’éthique des hôpitaux et centres de recherche.