ManagerSante.com®

Quels sont les questionnements éthiques et juridiques du recours aux techniques de l’I.A. en Santé ? Bénédicte BEVIERE-BOYER nous expose le rapport Touraine en vue de la prochaine révision des lois de bioéthique (3/4)

993de7156dfaab3efdc4ad462ec86505-en-medecine-les-impacts-reels-de-l-intelligence-artificielle-decryptage


N°3, Mai 2019


 

Article publié  par  Bénédicte BEVIERE-BOYER, Docteure en Droit, Maître de Conférences-HDR en Droit Privé à l’UFR de l’Université de Paris 8 (Unité de Formation et de Recherche). Elle est Directrice adjointe du Centre de recherche en droit privé et droit de la santé EA 1581. 

Elle vient de co-publier, en collaboration avec Dorothée DIBIE, et Astrid MARAIS , le 03 Avril 2019 (disponible à partir du 15 Mai 2019), un excellent ouvrage sur « La bioéthique en débat : le début de la vie » issu des actes du cycle de conférences de l’année 2018, à la Cour de cassation.

Bénédicte BEVIERE-BOYER assure la co-direction scientifique d’un Cycle de Droit et Bioéthique à la Cour de Cassation (entrée libre), de portée nationale et internationale. Elle organise régulièrement des colloques sur des thématiques d’actualité en rapport avec le Droit de la Santé, le numérique, en collaboration avec des Universités chinoises et québécoises. 


Relire la 2ème partie  de son article publié en Février 2019

Le rapport Touraine fait état de plusieurs questionnements éthiques fondamentaux relatifs au reploiement de l’intelligence artificielle dans le domaine de la santé : l’altération possible de la relation de soin, le rôle du médecin, la responsabilité médicale et le risque d’un accroissement de la fracture sociale dans l’accès aux technologies d’intelligence artificielle dans le domaine de la santé.

Les mises en garde à l’égard d’un engouement aveugle des patients à l’égard de l’intelligence artificielle lors de la relation de soin

L’immixtion croissante de l’intelligence artificielle dans la relation de soin risque de bouleverser significativement la relation de soin telle qu’elle existe actuellement. En effet, les patients, acteurs de plus en plus participatifs de leur propre santé, peuvent croire, qu’il leur est désormais possible de devenir maîtres de leurs parcours de santé en s’affranchissant, par le biais des algorithmes, des compétences des médecins en matière de diagnostics et de propositions thérapeutiques. Ce risque est d’autant plus accentué en raison de leur accès à des informations médicales sur les sites internet et à leurs informations médicales personnelles par le biais des objets connectés.

Partant de là, ils peuvent être incités à vouloir poser leurs propres diagnostics à l’aide des moyens techniques de l’intelligence artificielle et considérer qu’il leur est possible de se passer des compétences des professionnels de santé, voire les remettre en question en raison en raison des résultats de plus en plus fiables de l’IA en matière de diagnostic. Cette altération de la confiance des patients à l’égard des médecins ne saurait se justifier.

En effet, l’IA ne dispose pas de la capacité d’appréhender globalement toute la complexité de chaque individu, particulièrement au niveau psychologique. Elle ne saurait se substituer aux professionnels de santé en ce qui concerne la relation humaine, l’empathie et la communication des informations de santé, tout particulièrement lorsque celle-ci sont complexes et difficiles pour le patient.

Ceci est d’autant plus justifié que les malades peuvent se trouver dépassés par les données brutes qui leur sont communiquées par la machine, environnement technique difficilement accessible, ce qui peut remettre en cause le consentement éclairé et mener, paradoxalement, à une « délégation de consentement »[1] vers les professionnels de santé.

La situation ambiguë des médecins en termes de compétences et de responsabilités vis-à-vis des algorithmes

Les performances croissantes des algorithmes en termes de fiabilité des diagnostics et d’aide à la décision médicale sont telles que, dans certains domaines, les médecins peuvent se sentir contraints de déléguer leurs expertises médicales et leurs décisions aux outils de l’intelligence artificielle. S’appréhendant alors comme de simples exécutants, ils perdent corrélativement leur autonomie professionnelle et leur sens critique.

Une telle transformation du paradigme de l’exercice médical n’est pas sans risques. Elle peut conduire à l’absence de recul à l’égard des résultats produits par les algorithmes ne présentant aucune garantie d’infaillibilité en raison de leur programmation humaine susceptible d’être biaisée au départ.

Cette confiance aveugle aux algorithmes est contestable puisqu’elle provoque une déresponsabilisation scientifique remettant en cause l’indépendance professionnelle du médecin qui pourtant ne saurait y renoncer sous « quelque forme que ce soit » conformément au code de déontologie médicale. Il est par conséquent préférable d’appréhender l’IA comme une « innovation de rupture » à la « disposition du médecin pour l’accompagner dans sa pratique ».

Par ailleurs, une telle délégation de compétences médicales aux algorithmes est de nature à remettre en cause la responsabilité médicale telle qu’elle est envisagée actuellement. Elle peut avoir aussi des conséquences majeures dans le domaine des assurances. Se pose tout particulièrement la question de savoir comment appréhender la responsabilité d’un professionnel de santé qui renoncerait à suivre des recommandations fiables d’un algorithme.

A cet égard, le Conseil d’Etat estime qu’ « afin de préserver le pouvoir décisionnel du médecin et de responsabiliser ce dernier, une telle faute ne saurait être établie au seul motif que le praticien n’a pas suivi les prévisions du système d’IA, même dans l’hypothèse où ces dernières se révèleraient exactes ». Le rapport retient cette proposition en préconisant de « maintenir le principe d’une responsabilité du médecin qui, en l’absence de défaut établi par un algorithme, ne peut être engagée qu’en cas de faute de sa part ». A ce titre, en tant que nouvel outil, elle ne se différencie pas de ceux déjà existants. A ce titre, la démonstration de la faute doit se faire à l’égard d’une erreur d’utilisation ou de défectuosité.

En parallèle, peuvent aussi être envisagées les nouvelles responsabilités des autres acteurs directement impliqués dans l’utilisation des algorithmes intervenant lors du parcours de santé du patient qu’ils soient concepteurs, programmateurs, gestionnaires des bases ayant servi à l’apprentissage. En cas de dommage, l’identification de l’action dommageable peut se révéler complexe au détriment de la mise en œuvre de la responsabilité.

A cette difficulté, s’en ajoute une autre : le fait que les algorithmes sont dotés de capacités d’auto-apprentissage et par conséquent sont susceptibles d’erreurs de jugement. Le Parlement européen s’interroge sur l’opportunité de reconnaître leur personnalité juridique en vue de pouvoir engager leur responsabilité.

Sur ce point, le Comité consultatif national d’éthique (CCNE) et les experts auditionnées restent réservés en considérant que ceci pourrait avoir pour effet de déresponsabiliser les autres acteurs de la chaîne [2]. Le Conseil d’Etat,  mettant en avant les limites actuelles de l’IA en termes de capacité et d’autonomie, et le fait qu’elle « reste guidée par les paramétrages effectués, au moins à l’origine, par l’humain, qui doit donc demeurer responsable », confirme le nécessaire maintien de la responsabilité des professionnels de santé. `

Compte-tenu de ces questionnements, le rapport envisage l’hypothèse d’un nouveau régime de responsabilité spécifique aux dommages susceptibles d’être causés par les algorithmes. Cette possibilité est écartée par le Comité consultatif national d’éthique, le Conseil d’Etat et de nombreux experts auditionnés considérant qu’une telle initiative législative s’avèrerait prématurée et non pertinente.

Monsieur David Gruson estime dans ce sens  qu’ «aujourd’hui, l’essentiel des risques de dommages peuvent être pris en compte dans les cadres juridiques existants ». Il préconise à terme une initiative européenne pour la construction « d’un régime de responsabilité sans faute pour les dommages issus de cas de machine learning pur ».

Le Conseil d’Etat déclare pour sa part que « l’IA relève du droit des biens et les dommage qu’elle est susceptible de causer peuvent être appréhendés par les règles de la responsabilité du fait des choses ». Quoi qu’il en soit, le rapport insiste sur toute l’importance de garantir aux victimes d’algorithmes l’indemnisation de leurs préjudices.

Le risque d’une nouvelle fracture sociale dans l’accès aux techniques d’intelligence artificielle en santé

En raison de leur technicité novatrice et de leurs coûts souvent élevés, les outils de l’IA seront exploités prioritairement dans des grands centres hospitaliers ou dans des cabinets médicaux urbains, ce qui risque de créer des inégalités d’accès aux soins pour les patients en termes de répartition sur le territoire et d’accessibilité. A ceci s’ajoute le fait que les jeunes médecins seront davantage sensibilisés que leurs aînés. Cette fracture numérique sera, selon le Comité consultatif national d’éthique, d’autant plus exacerbée qu’une partie de la population française se situe « hors du numérique en général, soit par méconnaissance, soit par impossibilité d’accès ».

Par ailleurs, Monsieur David Gruson affirme qu’une réglementation nationale trop contraignante risquerait d’être préjudiciable dans un contexte de réglementation internationale qui inciterait les professionnels de santé et les patients à recourir à des « innovations de médecine algorithmiques conçues hors de France, voir hors de l’Union européenne » avec des standard éthiques différents. Monsieur Cédric Villani ajoute que les offreurs de santé ne seraient pas à égalité en termes de ressources, ce qui ne ferait qu’accentuer la fracture sociale numérique.

Ces différents questionnements éthiques et juridiques montrent les enjeux majeurs de l’accès et de l’utilisation des techniques de l’intelligence artificielle dans le domaine de la santé ainsi que leurs limites. Bien que l’IA soit appréhendée comme une « innovation de rupture », le rapport tend à privilégier une approche classique en la considérant comme un outil certes novateur en terme de pratique médicale mais non susceptible, dans un premier temps, de justifier d’un régime juridique spécial, particulièrement dans le domaine de la responsabilité.

L’idée est en effet de tempérer l’intervention législative nationale afin de pouvoir continuer à agir sur la scène internationale. Les choix opérés en matière de régulation de l’intelligence artificielle dans le domaine de la santé constituent, à ce titre, un aspect stratégique majeur.

Lire la suite de cet article le mois prochain (4ème partie).


Pour aller plus loin : 

[1] David Gruson

[2] Raja Chatila, Cédric Villani.

 


  

 


 

Nous remercions vivement le  Bénédicte BEVIERE-BOYER Docteure en Droit, Maître de Conférences-HDR en Droit Privé à l’UFR de l’Université de Paris 8 , co-directrice scientifique du Cycle de Droit et Bioéthique à la Cour de Cassation, de portée nationale et internationale, organisatrice de colloques sur des thématiques d’actualité en rapport avec le Droit de la Santé  en collaboration avec les Universités chinoises et québécoises, pour partager son expertise professionnelle pour nos fidèles lecteurs de www.managersante.com


Biographie de Bénédicte BEVIERE-BOYER, :
Bénédicte BEVIERE-BOYER, Docteur en Droit, est Maître de Conférences-HDR en Droit Privé à l’UFR de l’Université de Paris 8 (Unité de Formation et de Recherche). Elle est également directrice adjointe du Centre de recherches juridique de droit privé et Droit de la Santé (EA1581). Elle assure la co-direction scientifique d’un Cycle de Droit et Bioéthique à la Cour de Cassation (entrée libre), de portée nationale et internationale, sur des thématiques d’actualité en rapport avec le Droit de la Santé, le numérique, (Médecine personnalisée, Big Data, Humain en transformation transhumanisme, vieillissement, Fin de vie). Elle organise régulièrement des colloques sur des thématiques d’actualité en collaboration avec des Universités chinoises et québécoises. Elle conduit ses travaux de recherches pluri et interdisciplinaires dans les domaines du droit de la bioéthique, de l’éthique et du numérique. Elle dirige le M1 Droit de la santé et organise une nouvelle formation en M2 Droit de la santé sur le Numérique et l’Intelligence Artificielle (I.A.). Auteur d’un ouvrage et ayant dirigé plusieurs ouvrages collectifs, elle a publié de nombreux articles sur la recherche, l’innovation, le numérique, les données de santé, la relation de soins, la protection des droits de la personne, la bioéthique, le Dossier Médical Personnel, etc…. Elle enseigne sur des thématiques autour droit de la santé: droits des patients, droit de la recherche et de l’innovation, droit du médicament, déontologie, éthique, mais aussi sur l’éthique dans le domaine des assurances. Auparavant, elle a enseigné dans le cadre du cursus universitaire français classique (LMD), essentiellement en droit privé général et en droit des affaires.

ÉVÉNEMENTS 2019 A NE PAS MANQUER

Mardi 16 mai 2019

de 17 heures à 19 heures

Lieu : Grand’chambre de la Cour de cassation, Paris 1er  

(entrée par le 5 quai de l’Horloge), 

THEME :

« Numérique et santé

(Intelligence Artificielle, données de santé, Big Data) »

Modérateur : Bénédicte Bévière-Boyer, Maître de conférences à l’université Paris 8

Intervenants : 

Entrée libre, sur inscription préalable auprès de la Cour de cassation – Télécopie : 01 44 32 78 28 – Internet : www.courdecassation.fr

Téléchargez le programme du Cycle 2019

Manifestation validée au titre de la formation continue des avocats et des magistrats (Les attestations de présence seront délivrées sur demande à la fin de chaque colloque)


PUBLICATION D’OUVRAGE 2019

 co-écrit  avec Bénédicte BEVIERE-BOYER

En exclusivité sur ManagerSante.com, nous avons le plaisir de vous informer de la publication  de l’ouvrage du cycle de conférences de Droit et Bioéthique 2018 


Résumé de l’ouvrage : 
La bioéthique s’intéresse aux questions éthiques soulevées par les progrès techno-scientifiques. La loi a vocation à encadrer ces progrès afin de s’assurer que la science reste au service de la personne et non l’inverse.
C’est dans cette optique qu’ont été adoptées les différentes lois bioéthiques en 1994. Parce que la médecine est en constante évolution, ces lois font l’objet d’un réexamen régulier.
La prochaine révision sera sans doute l’occasion de combler les lacunes ou imperfections de la loi auxquelles le juge est régulièrement confronté. Les progrès de la médecine concernent tous les stades de la vie de la personne.
Ses incidences juridiques peuvent être mesurées de la conception à la mort de la personne.
Cet ouvrage est issu des actes du cycle de conférences de l’année 2018, à la Cour de cassation.

Cycle de DROIT & BIOÉTHIQUE  2019

avec Bénédicte BEVIERE-BOYER

Grand’chambre de la Cour de Cassation 
5 quai de l’Horloge
75001 Paris
Entrée libre
Télécopie : 01 44 32 78 28
www.courdecassation.fr

 

TELECHARGEMENT

DU PROGRAMME 2019

CALENDRIER 2019 : en ligne 

INSCRIPTION GRATUITE

OBLIGATOIRE 

Présentation du Cycle : 

« La bioéthique s’intéresse aux questions éthiques soulevés par les progrès technoscientifiques. La loi a vocation à encadrer ces progrès afin de s’assurer que la science reste au service de la personne et non l’inverse.

C’est dans cette optique qu’ont été adoptées les différentes lois bioéthiques dès 1994. Parce que la médecine est en constante évolution, ces lois font l’objet d’un réexamen régulier. La prochaine révision, prévue en 2018, sera sans doute l’occasion de combler les lacunes ou imperfections de la loi auxquelles le juge est régulièrement confronté.

Les progrès de la médecine concernent tous les stades de la vie de la personne. Ses incidences juridiques peuvent être mesurées de la conception à la mort de la personne. »

 


Et suivez l’actualité sur www.managersante.com, 

partenaire média digital 

Officiel du Salon Européen  Paris Healtcare Week 2019 

Paris-Porte de Versailles [#PHW19] du 21>23 Mai 2019

ManagerSante.com & #PHW19


Vous aimez notre Site média ?

Cliquez sur les étoiles et votez :

 

Bénédicte BEVIERE-BOYER (PhD)

Bénédicte BEVIERE-BOYER, Docteur en Droit, est Maître de Conférences-HDR en Droit Privé à l'UFR de l'Université de Paris 8 (Unité de Formation et de Recherche). Elle est également directrice adjointe du Centre de recherches juridique de droit privé et Droit de la Santé (EA1581). Elle assure la co-direction scientifique d’un Cycle de Droit et Bioéthique à la Cour de Cassation (entrée libre), de portée nationale et internationale, sur des thématiques d'actualité en rapport avec le Droit de la Santé, le numérique, (Médecine personnalisée, Big Data, Humain en transformation transhumanisme, vieillissement, Fin de vie). Elle organise régulièrement des colloques sur des thématiques d’actualité en collaboration avec des Universités chinoises et québécoises. Elle conduit ses travaux de recherches pluri et interdisciplinaires dans les domaines du droit de la bioéthique, de l'éthique et du numérique. Elle dirige le M1 Droit de la santé et organise une nouvelle formation en M2 Droit de la santé sur le Numérique et l'Intelligence Artificielle (I.A.). Auteur d'un ouvrage et ayant dirigé plusieurs ouvrages collectifs, elle a publié de nombreux articles sur la recherche, l'innovation, le numérique, les données de santé, la relation de soins, la protection des droits de la personne, la bioéthique, le Dossier Médical Personnel, etc…. Elle enseigne sur des thématiques autour droit de la santé: droits des patients, droit de la recherche et de l'innovation, droit du médicament, déontologie, éthique, mais aussi sur l'éthique dans le domaine des assurances. Auparavant, elle a enseigné dans le cadre du cursus universitaire français classique (LMD), essentiellement en droit privé général et en droit des affaires.

Quitter la version mobile