Nouvel Article rédigé pour ManagerSante.com par notre nouvelle experte Delphine JAAFAR, Avocat associé VATIER.
Elle anime l’équipe Santé du Cabinet d’avocats VATIER (Paris). Elle consacre son activité à l’accompagnement juridique de l’ensemble des acteurs et opérateurs, aussi bien privés que publics, du monde de la santé.
N°4, Mai 2024
L’usage des systèmes d’intelligence artificielle générative (SIAgen) par les professionnels de santé doit se généraliser.
C’est l’une des dix recommandations de l’Académie nationale de médecine dans un rapport en date du 5 mars 2024. « Tous les domaines de la santé et toutes les spécialités sont concernées ». Pour l’académie, le recours à ces outils « rend indispensable que tous les futurs soignants aient une connaissance minimale des principes de fonctionnement, des principes éthiques et des règlements ».
Les dispositifs de santé numérique sont susceptibles d’acquérir des formes réelles d’autonomie, notamment d’un point de vue décisionnel ce qui inquiète quant aux dommages qu’ils pourraient causer et pose la question des responsables potentiels.
ET ils sont, a priori, nombreux : il peut s’agir de l’utilisateur, du propriétaire, du fabricant de la machine, du concepteur du logiciel intégré à la machine.
A contrario, si les dispositifs d’intelligence artificielle sont de nature à préserver par exemple le patient d’une erreur de diagnostic, se pose la question de la responsabilité du professionnel de santé en cas de non-utilisation d’un procédé algorithmique et de la réparation d’une éventuelle perte de chance qu’aurait eue le patient de ne pas subir de dommage résultant de la décision prise par le professionnel de santé sans l’algorithme qui aurait pu améliorer sa prise en charge.
Se pose encore la question des outils utilisés par le professionnel de santé et des conditions dans lesquelles il fait appel à des usages numériques.
L’intelligence artificielle dans le secteur de la santé : quels régimes de responsabilités ?
L’introduction de l’intelligence artificielle dans le domaine de la santé ne bouleverse aucunement les règles déontologiques et légales que les professionnels de santé doivent respecter : les dispositions relatives à l’information ainsi que le consentement trouvent à s’appliquer, tels que les articles R. 4127-35 et L. 1111-2 et suivants du code de la santé publique ; et l’article R. 4127-5 du code de la santé publique pose le principe selon lequel le médecin « ne peut aliéner son indépendance professionnelle sous quelque forme que ce soit ».
Ainsi, cela implique « que ce dernier soit en mesure de comprendre les dispositifs qu’il utilise afin d’en cerner les limites et, le cas échéant, d’être en mesure de s’écarter des recommandations faites par la machine. Cela suppose également que le médecin continue d’assumer les décisions médicales qu’il est conduit à prendre »[1].
Il convient de l’affirmer encore : NON, les principes de responsabilité n’ont pas été considérablement bouleversés compte tenu du de l’utilisation de l’intelligence artificielle (IA) dans le domaine de la santé.
Le Conseil Consultatif National d’Ethique (CCNE) estime que la construction d’un cadre général d’indemnisation des dommages susceptibles d’être causés par les objets numériques n’apparaît pas comme une priorité immédiate dès lors que les dommages restent, en l’état, relativement bien appréhendés par les régimes de responsabilité du fait des choses et du fait des produits défectueux[2].
Et le Conseil d’Etat rappelle encore que les difficultés susceptibles d’être rencontrées en matière de responsabilité peuvent être résolues de manière prétorienne en mobilisant les règles des différents régimes de responsabilité existants de sorte que le cadre juridique actuel ne doit pas être modifié[3].
Trois régimes de responsabilités sont susceptibles d’être mobilisés pour répondre aux problématiques soulevées par l’introduction de l’IA en matière de santé.
- La responsabilité pour faute du professionnel de santé. Le Conseil d’Etat affirme que « Afin de préserver le pouvoir décisionnel du médecin et de responsabiliser ce dernier, une telle faute ne saurait être établie au seul motif que le praticien n’a pas suivi les prévisions du système d’intelligence artificielle même dans l’hypothèse où ces dernières se révèleraient exactes »[4].
- La responsabilité du fait des choses. Le Conseil d’Etat estime que l’intelligence artificielle relève du droit des biens et les dommages qu’elle est susceptible de causer peuvent être appréhendés par les règles de la responsabilité du fait des choses[5].
La jurisprudence a déjà admis une distinction entre la garde de la structure de la chose, attribuée au fabricant, et la garde du comportement, attribuée à l’utilisateur, lorsque le dommage est causé par une chose ayant un dynamisme propre et dangereux.
- La responsabilité du fait des produits défectueux. Ce régime a été introduit par la directive 85/374/CEE du 25 juillet 1985 relative au rapprochement des dispositions législatives, règlementaires et administratives des Etats membres en matière de responsabilité du fait des produits défectueux.
La victime peut agir contre le producteur de l’IA afin de demander réparation des dommages résultant d’une atteinte à la personne ou à un bien autre que le produit défectueux lui-même et ce qu’elle soit ou non liée à ce producteur par un contrat.
Nonobstant, l’article 1245-10 du Code civil exonère le producteur de toute responsabilité s’il parvient à prouver l’absence de défaut du produit au moment de sa mise en circulation ou « que l’état des connaissances scientifiques et techniques, au moment où il a mis le produit en circulation, n’a pas permis de déceler l’existence du défaut » (exonération pour risque de développement). Le fabricant pourra s’exonérer de sa responsabilité en invoquant un risque de développement[6].
Le caractère évolutif des SIAgen pourrait dès lors conduire à refuser toute indemnisation aux victimes …ce qui pose la construction, à terme, en droit européen, de la définition d’un régime de responsabilité sans faute.
Et l’union européenne s’est effectivement saisie des enjeux du développement de l’intelligence artificielle.
Le Comité Economique et Social Européen (CESE) a soulevé que « La question de savoir à qui sera imputée la responsabilité des préjudices causés par les systèmes d’IA fait l’objet de nombreux débats. D’autant plus dans le cas où le système est autonome et continue son auto-apprentissage après sa mise en service »[7]. C’est pourquoi l’octroi d’une personnalité juridique à l’intelligence artificielle a pu faire l’objet de débat, mais elle engendrerait de nombreuses difficultés de sorte que cette possibilité a été exclue.
Le Parlement européen envisage une évolution de l’instrument législatif à un horizon de 10 à 15 ans[8]. Il se positionne d’abord en faveur d’une adaptation des régimes de responsabilité existants, tels que la responsabilité des produits défectueux qui pourrait à ce titre devenir la responsabilité de droit commun.
La possible exonération pour risque de développement des fabricants des systèmes d’intelligence artificielle pose des difficultés.
Le Parlement européen estime, en outre, que les responsabilités devraient être proportionnelles au niveau réel d’instructions données à l’IA intelligence artificielle et que la mise en place d’un régime d’assurance de l’intelligence artificielle devrait tenir compte de toutes les responsabilités potentielles d’un bout à l’autre de la chaîne.
Nourrie par l’ensemble de ces débats, la Commission européenne a publié, le 21 avril 2021, sa proposition de règlement du Parlement européen sur l’intelligence artificielle qui fixe des règles harmonisées pour le développement, la mise sur le marché et l’utilisation des systèmes d’intelligence artificielle dans l’Union selon une approche proportionnée fondée sur les risques du système d’intelligence artificielle[9]. L’IA Act a été voté par l’intégralité des Etats membres le 2 février 2024 tet par les députés européens le 13 mars 2024.
Dans sa proposition de règlement, la Commission a pu confirmer la volonté de mettre à jour la règlementation existante, notamment la directive sur la responsabilité des produits défectueux.
Il convient ainsi de relever la publication, le 28 septembre 2022 de deux propositions de directives : l’une relative à la responsabilité du fait des produits défectueux qui sera au cœur de nos interrogations et l’autre à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’IA ayant très justement pour objet de faire évoluer le cadre.
Toutefois, alors que la commission proposait dans son livre blanc une approche fondée sur la désignation de la personne la plus à même de répondre à la problématique de la responsabilité, mettant en cause le développeur lors la phase de développement et l’utilisateur lors de la phase d’utilisation, l’IA Act abandonne la distinction des différents intervenants dans le cycle de vie du système d’intelligence artificielle pour se recentrer sur la notion de fournisseur, d’importateur, de distributeur et d’utilisateur.
Le fournisseur est défini comme la personne physique ou morale qui développe un système d’intelligence artificielle en vue de sa mise sur le marché, sous son nom ou sa marque. L’importateur est celui qui, établi dans l’Union, met sur le marché le système pour lequel est apposé le nom ou la marque d’une personne établie hors Union. Le distributeur est une personne autre que le fournisseur ou l’importateur qui, dans la chaine d’approvisionnement, rend disponible un système sans en affecter ses propriétés. Enfin, l’utilisateur est celui qui utilise le système à des fins professionnelles. : il s’agit dès lors du professionnel de santé.
Le traitement des données de santé : existe-t-il des garde-fous dans l’usage de ces technologies ?
Les systèmes, notamment algorithmiques, de traitement des données de santé, ne sont pas infaillibles ; les résultats proposés par ces traitements de données massives de santé sont déterminés par des choix humains et susceptibles de présenter des biais importants.
La médecine algorithmique ne doit donc pas « donner au patient l’illusion que le regroupement de grandes masses de données permet, à lui seul, d’aboutir à des diagnostics et des propositions de thérapie plus pertinents que les prescriptions d’un médecin »[10].
Le recours au traitement des données de santé engendre donc pour le patient le risque, par excès de confiance, de déléguer son consentement à la machine et ainsi de le priver de son pouvoir de participation à sa propre prise en charge.
Dépassés par les capacités de ces dispositifs faisant appel traitement de données massives de santé, dont la puissance de diagnostic surpasserait celle de l’homme, les professionnels de santé pourraient aussi être tentés de déléguer leur pouvoir décisionnel aux algorithmes et laisseraient à ces derniers la faculté de réaliser seul les actes de diagnostic et de prescription.
Le recours aux SIAgen entraînerait une forme de dépossession des professionnels de santé au profit de la machine, favorisée par la difficile appréhension de leurs processus d’apprentissage par les professionnels, et risquerait de remettre en question leur pouvoir de conviction sur la prise en charge du patient.
Le développement des dispositifs techniques ayant recours au traitement des données de santé ne doit pas avoir pour effet d’imposer au praticien une décision fournie par l’algorithme.
Le Conseil National de l’Ordre des Médecins (CNOM) tient à ce que les résultats issus d’un traitement algorithmique de données de santé puissent toujours faire l’objet de critiques par le professionnel de santé qui doit conserver une marge d’appréciation sur ces résultats.
Il importe, afin de ne pas glisser vers une déshumanisation de la relation de soin, que l’autonomie décisionnelle des professionnels soit préservée de manière à ce qu’ils continuent d’assumer les décisions qu’ils prennent en association avec son patient.
Il est dès lors nécessaire que les dispositifs faisant appel au traitement des données de santé restent des supports parmi d’autres permettant aux professionnels de réduire le risque dans l’appréhension de la prise en charge du patient et de formuler des propositions thérapeutiques adaptées au patient dont la décision finale doit être prise par les professionnels en interaction avec lui.
En conclusion :
Et pour se prémunir contre ces possibles phénomènes de délégation de consentement et de décision, des garde-fous dans l’usage de ces technologies ont été introduits et notamment une obligation d’information du patient sur le recours à un traitement algorithmique dans son processus de prise en charge qui pèse sur tous les professionnels de santé.
Les dispositions des articles L. 1111-2 et L. 1111-4 du code de la santé publique garantissent au patient le droit à l’information sur son état de santé et sur les différentes investigations, traitements ou actions de prévention qui lui sont proposés à partir duquel il peut, compte tenu de ces informations et préconisations, donner son consentement libre et éclairé et prendre les décisions concernant sa santé.
Le Conseil constitutionnel a d’ailleurs affirmé, à l’occasion de son examen de la loi relative à la protection des données à caractère personnel, que le recours à un algorithme pour fonder une décision administrative individuelle doit faire l’objet d’une information préalable[11].
L’IA reste un outil au service du professionnel de santé qui reste responsable.
Pour aller plus loin :
[1] Conseil d’Etat, Révision de la loi bioéthique : quelles options pour demain ?, 28 juin 2018
[2] CCNE, Avis n° 129, Contribution du Comité consultatif national d’éthique à la révision de la loi de bioéthique 2018-2019, 19 novembre 2018, p. 94 à 116
[3] Rapport du Conseil d’Etat préc.
[4] Rapport du Conseil d’Etat préc.
[5] Rapport du Conseil d’Etat préc.
[6] CJUE, 29 mai 1997, Commission c/ Royaume Uni, aff. C-300/95
[7] Comité Economique et Social Européen, L’intelligence artificielle : les retombée de l’intelligence artificielle pour le marché numérique, la production, la consommation, l’emploi et la société, 31 mai 2017
[8] Résolution du Parlement européen, Règles de droit civil sur la robotique, 16 février 2017
[9] Règlement (UE) 2017/745 du Parlement européen et du Conseil du 5 avril 2017 sur les dispositifs médicaux, modifiant la directive 2001/83/CE, le règlement (CE) n° 178/2002 et le règlement (CE) n° 1223/2009 et abrogeant les directives du Conseil 90/385/CEE et 93/42/CEE.
[10] Rapport du Conseil d’Etat préc.
[11] Cons. const. n° 2018-765 DC du 12 juin 2018, Loi relative à la protection des données à caractère personnel, cons. 65 à 72.
Nous remercions vivement Article rédigé par Delphine JAAFAR, Avocat associé VATIER, Ancien membre du Conseil de l’Ordre du Barreau de paris, Ancien Secrétaire de la Conférence du Barreau de Paris, pour partager son expertise juridique pour nos fidèles lecteurs de ManagerSante.com