Pour une Garantie Humaine de l’I.A. : doit-on proposer une “régulation positive” par le management ? Réponse de David GRUSON (Ethik-IA)

Image2


N°1, Mai 2019


 

Article publié  par notre nouvel expert, David GRUSON qui est Professeur à la Chaire santé de Sciences Po Paris. Titulaire d’un doctorat de droit de la santé et d’un DEA de technologies de l’information et de la communication, il est spécialisé sur les enjeux du numérique, de l’IA, de la robotisation en santé. Ancien conseiller du Premier ministre chargé de la Santé et ancien directeur général de CHU, il s’est depuis quinze ans engagé pour le développement de la télémédecine en France. Il est porteur de l’initiative ETHIK-IA qui vise à soutenir la recherche sur la régulation juridique, éthique et sociale du déploiement de l’IA et de la robotisation en santé. Membre de la Société française de télémédecine, il a introduit le concept de télémédecine de garantie humaine de l’IA.

 


 

Le Premier ministre a annoncé la présentation du projet de loi de bioéthique pour le mois de juillet prochain. Celui-ci résultera de choix politiques établis à l’issue d’un processus de concertation engagé par les Etats généraux de bioéthique et poursuivi par l’avis émis par le Comité consultatif national d’éthique et le rapport de la mission d’information de l’Assemblée nationale publié par le Pr Jean-Louis TOURAINE.    Cette concertation avait intégré un volet important consacré à l’intelligence artificielle et au numérique en santé.

 

Encourager la diffusion de l’IA en santé et maîtriser les risques éthiques associés en évitant de basculer dans la sur-réglementation : cette ligne est désormais largement partagée. La France et l’Union européenne constituent d’ores et déjà le territoire dans lequel le niveau de protection juridique des données de santé est le plus élevé au monde. Ajouter des crans de réglementation complémentaire encouragerait les professionnels et les patients à recourir à des solutions d’intelligence artificielle conçues hors d’Europe et dont nous ne pourrions pas garantir a priori le caractère éthique.

Stimuler le développement de solutions françaises et européennes d’intelligence artificielle en santé et acclimater dans un cadre conforme à nos valeurs les solutions conçues ailleurs : c’est le sens opérationnel de la notion de régulation positive de l’intelligence artificielle portée par Ethik-IA. Et cette régulation positive relève largement de la construction partagée d’outils pratiques et de démarches managériales adaptées. Le moment est moins à la création de droit qu’à la construction d’outils souples d’accompagnement du déploiement de l’intelligence artificielle en santé.

11_transhumanismebd_3

Le principe de “garantie humaine” de l’Intelligence Artificielle (I.A.)

C’est pourquoi, nous avions proposé l’introduction, dans la prochaine loi de bioéthique, d’un principe de garantie humaine parmi les « 5 clés de régulation de l’IA et de la robotisation en santé » présentées en février 2018. Cette idée a pu être relayée dans les rapports et travaux évoqués et a désormais de bonnes chances de faire son entrée dans la prochaine révision bioéthique.

L’enjeu sera maintenant de définir le principe de garantie humaine de l’IA de la manière la plus simple dans la prochaine loi : il s’agit de l’établissement d’un certain degré de supervision humaine des algorithmes utilisés en médecine. La supervision ne doit pas s’appliquer à chaque étape du processus – sinon nous bloquons le potentiel d’innovation de l’IA – mais à des points critiques. Ces derniers n’ont pas à être, en principe, définis ex ante dans la loi et la réglementation mais gagneraient plutôt à faire l’objet d’une identification progressive dans le cadre d’un dialogue partagé entre les professionnels et les patients et en ayant recours à des outils adaptés pour maîtriser les risques.

La télémédecine de garantie humaine – notion introduite avec la Société française de télémédecine SFT-ANTEL – constitue l’un de ces outils. Le principe est très simple : dès lors qu’un médecin de première ligne a un doute sur la proposition de traitement de l’algorithme, il peut solliciter le deuxième regard d’un confrère pour l’aider à prendre du recul, pour ne pas basculer dans un risque de délégation « automatique » de sa décision à la Machine. Pas besoin de créer de droit nouveau en l’espèce : le recours à la télémédecine à des fins de garantie humaine de l’intelligence artificielle entre complètement dans le champ de la définition juridique de la télé-expertise. Celle-ci reçoit, de plus, une valorisation économique dans le cadre de l’avenant à la convention médicale signé en 2018. La télémédecine de garantie humaine interviendrait avant l’application du traitement. Elle n’aurait bien entendu pas de caractère systématique mais serait mobilisée en cas de doute du médecin ou du patient face à la solution algorithmique.

adn-genetique-biotech-intelligence-artificielle-medecine-futur

Le collège de garantie humaine 

Deuxième outil de régulation souple proposé : le collège de garantie humaine. Ici encore, il ne s’agit pas d’ajouter du droit mais d’adapter à l’IA une méthode déjà bien connue en médecine, celle de la revue de cas pluridisciplinaire (RCP). Concrètement, l’idée est d’opérer a posteriori une sélection de dossiers médicaux traités par IA et de leur appliquer un deuxième regard humain. Le collège de garantie humaine pourrait intégrer des médecins, des soignants, des responsables du management qualité et des représentants des patients. Il aurait vocation à être constitué sur une échelle pertinente, sans tomber dans le risque d’une démultiplication d’instances. Clairement, une instance et une méthodologie de ce type seraient utiles auprès du Health Data Hub en cours de constitution au niveau national. Des collèges de garantie humaines pourraient également être utilement positionnés auprès des CHU et de leurs entrepôts de données, comme nous l’avions évoqué aux 16e Assises hospitalo-universitaires de Poitiers en décembre 2018. Mais cette méthode d’auditabilité des algorithmes en santé peut aussi être appliquée par les producteurs d’IA.

En pratique, le collège de garantie humaine devra s’assurer, à partir des cas revus, que l’IA reste efficace médicalement et responsable éthiquement au fil de sa transformation de Machine Learning. En cas d’écart non souhaitable, des mesures correctrices seraient proposés aux utilisateurs ou aux concepteurs d’IA.

Pour compléter ces leviers pratiques de régulation positive, des référentiels souples – ce que l’Ordre des médecins dans son rapport de janvier 2018 appelait la soft law gagneraient à être établis dans des domaines plus sensibles. C’est le sens, par exemple, du projet de référentiel sur l’application de l’IA aux données génomiques établi avec les équipes de l’IHU Imagine et présenté au mois de novembre dernier. Ici encore, la clé méthodologique est le dialogue partagé avec les équipes de professionnels utilisateurs qui a permis de faire émerger des points critiques à réguler mais aussi des blocages à assouplir (comme la grande difficulté d’accès aux données cliniques par les data scientists).

 

Au total, le management constitue donc un point clé de la régulation positive de l’IA en santé. Ce qui est vrai du point de vue normatif et du point de vue du pilotage qualité l’est aussi s’agissant de la gestion des impacts RH de la diffusion de l’IA en santé. C’est l’objectif opérationnel de la notion de RSE digitale en santé.

Nous y reviendrons !

12ac973cc51db1709a4a072fedd3ba22

     Image2twitter-icon-hover

 


 

Nous remercions vivement David GRUSON , Professeur à la Chaire santé de Sciences Po Paris, porteur de l’initiative ETHIK-IA , pour partager son expertise  sur l’Intelligence Artificielle pour nos fidèles lecteurs de www.managersante.com

 


Biographie de David GRUSON :
Membre du comité de direction de la Chaire Santé de Sciences Po Paris, docteur en droit de la santé et titulaire d’un troisième cycle de technologies d’information et la communication, David Gruson est le fondateur de l’initiative académique et citoyenne Ethik-IA qui vise au déploiement d’outils de régulation positive du déploiement de l’IA et de la robotisation en santé.
Les propositions opérationnelles d’Ethik-IA ont été notamment relayées dans le cadre des missions de Cédric Villani et de France Stratégie sur l’intelligence artificielle. David Gruson est engagé activement sur le volet numérique du processus de révision de la loi de bioéthique.
Il a exercé de nombreuses fonctions à responsabilités au sein du système de santé et notamment celles de Conseiller du Premier ministre chargé de la Santé, de Directeur général du CHU de La Réunion et de Délégué général de la Fédération hospitalière de France.

 

BFM TV David Gruson

[Vidéo ] 

David GRUSON était reçu le 24 Janvier 2019 à l’émission sur BFM TV Business  pour présenter une nouvelle étude sur l’impact de l’Intelligence Artificielle sur l’emploi en santé.


PUBLICATIONS

3 Ouvrages publiés par David GRUSON 

 

OUVRAGES David GRUSON  


Et suivez l’actualité sur www.managersante.com, 

partenaire média digital 

Officiel du Salon Européen  Paris Healtcare Week 2019 

Paris-Porte de Versailles [#SANTEXPO] 

David GRUSON PHW19

[VIDEO]

David GRUSON interviewé lors du Salon International

favicon-MMS-V2-noir


Vous aimez notre Site média ?

Cliquez sur les étoiles et votez :

five-stars

 

 

Un commentaire sur “Pour une Garantie Humaine de l’I.A. : doit-on proposer une “régulation positive” par le management ? Réponse de David GRUSON (Ethik-IA)

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.