N°4, Juin 2019
Article publié par Bénédicte BEVIERE-BOYER, Docteure en Droit, Maître de Conférences-HDR en Droit Privé à l’UFR de l’Université de Paris 8 (Unité de Formation et de Recherche). Elle est Directrice adjointe du Centre de recherche en droit privé et droit de la santé EA 1581.
Bénédicte BEVIERE-BOYER organise les 20 et 21 Juin 2019 à Paris, les 7èmes et 8ème Colloques Internationaux sur le numérique, événement à ne pas manquer, en collaboration avec des Universités chinoises et québécoises (entrée libre, inscription obligatoire)
Elle vient de co-publier, en collaboration avec Dorothée DIBIE, et Astrid MARAIS , le 03 Avril 2019 (disponible à partir du 15 Mai 2019), un excellent ouvrage sur « La bioéthique en débat : le début de la vie » issu des actes du cycle de conférences de l’année 2018, à la Cour de cassation.
Elle assure également la co-direction scientifique d’un Cycle de Droit et Bioéthique à la Cour de Cassation (entrée libre), de portée nationale et internationale.
L’éthique de l’intelligence artificielle en santé contribue à la reconnaissance de trois principes fondamentaux protecteurs lors de son utilisation. Elle peut tout particulièrement s’exprimer à travers la mise en place d’un nouveau cadre de réflexion et, si possible, par un futur observatoire européen des développements et des usages de l’intelligence artificielle. Est aussi préconisée la promotion de certifications spécifiques des algorithmes dans le domaine de la santé qui ne pourraient être envisageables qu’au niveau des réglementations européennes, sauf à promouvoir un volontariat au niveau national. In fine, le rapport émet treize recommandations spécifiques dans le domaine du numérique, ce qui témoigne de toute l’importance de ce champ lors de la prochaine révision des lois de bioéthique.
Les trois principes fondamentaux du recours à l’intelligence artificielle en santé
La mise en place des techniques de l’intelligence artificielle suppose des garanties offertes aux patients. Celles-ci peuvent s’exprimer à travers trois principes fondamentaux : le principe de garantie humaine du numérique en santé, le principe de l’explicabilité de l’algorithme et le principe de l’effectivité du consentement de la personne.
Le principe de garantie humaine du numérique en santé
Initié par le Comité consultatif national d’éthique, ce principe a pour objectif de «garantir une supervision humaine de toute utilisation du numérique en santé, et l’obligation d’instaurer, pour toute personne le souhaitant et à tout moment, la possibilité d’un contact humain susceptible de lui transmettre l’ensemble des informations la concernant dans le cadre de son parcours de soins ». Cette supervision s’exprime à travers la « nécessité de préserver la maîtrise finale du professionnel de santé, en interaction avec le patient, pour prendre des décisions appropriées en fonction de chaque situation spécifique ». Pour ce faire, Monsieur David Gruson recommande d’encourager la mise en place de recommandations de bonnes pratiques qui pourrait être envisagée par la Haute autorité de santé.
Deux actions concrètes sont suggérées. La première est d’instituer des procédures de vérifications régulières, ciblées et aléatoires des options de prise en charge proposées par les algorithmes d’aide à la décision. Ceci pourrait se faire par l’intermédiaire d’un « collège de garantie humaine » constitué à l’échelle d’un établissement ou d’un territoire plus large qui aurait pour mission de consulter régulièrement des dossiers médicaux afin de s’assurer de la pertinence du diagnostic fourni par l’algorithme. La seconde proposition, en provenance de la Société française de télémédecine, est d’instituer un nouvel acte de télémédecine de garantie humaine permettant, en cas de doute d’un patient ou d’un médecin à l’égard de la solution thérapeutique proposée par un algorithme, d’obtenir un second avis médical humain par un acte de télémédecine de garantie humaine. Ces procédés de supervision à l’égard des systèmes d’aide à la décision fondés sur des algorithmes d’apprentissage devraient, selon la Commission de réflexion sur l’éthique de la recherche en science et technologie du numérique d’Allistene (CENA), se concevoir dans la transparence, avec des tâches et des contraintes spécifiques et des dispositifs de traçabilité. A défaut, en cas de recours à un système d’intelligence artificielle pour établir un diagnostic sans supervision humaine, pourraient être invoqués l’article L.4161-1 du code de la santé publique concernant l’exercice illégal de la médecine et l’article 10 de la loi du 6 janvier 1978 prévoyant qu’aucune décision produisant des effets juridiques à l’égard d’une personne ne peut être prise sur le seul fondement d’un traitement automatisé des données.
Suite à ces différentes propositions, le rapport préconise d’introduire le principe législatif de garantie humaine du numérique en santé et de charger la haute autorité de santé de rédiger des recommandations de bonnes pratiques pour la mise en œuvre concrète de ce principe ; de mettre en place un collège de garantie humaine à l’échelle d’un établissement ou d’un territoire plus large et de définir un nouvel acte de télémédecine dit « de garantie humaine » permettant d’obtenir un deuxième avis médical en cas de doute sur les recommandations thérapeutiques de l’algorithme.
Le principe d’explicabilité de l’algorithme
Afin de permettre un meilleur jugement critique des médecins à l’égard des résultats algorithmes en termes de diagnostics suggérés par la machine, gage de leur autonomie décisionnelle leur permettant de décider en connaissance de cause s’il convient ou pas d’en tenir compte lors des soins, le rapport préconise une exigence d’explicabilité permettant de comprendre le pourquoi et le comment de la proposition émise par l’algorithme. Ceci suppose, selon la CNIL et le Conseil d’Etat, des informations précises sur « la logique de fonctionnement de l’algorithme et les critères retenus pour classer et hiérarchiser les informations analysées dans les données ». Dans ce sens, Monsieur Cédric Villani se fonde sur les « critères déterminants » ayant fondé le résultat algorithme. Cette exigence est aussi susceptible de se déployer lorsque les algorithmes sont autoapprenants au fur et à mesure de l’enrichissement de la base des données, puisqu’il demeure toujours possible d’identifier les critères déterminants justifiant le choix proposé par les algorithmes. Monsieur Raja Chatila suggère par ailleurs que l’exigence d’explicabilité soit différenciée selon le public averti ou non (spécialistes de l’IA, médecins, patients, etc.) et plus particulièrement qu’elle soit dédiée au médecin, ce qui permettrait de consolider la relation médicale et d’offrir des garanties éthiques complémentaires. Cette option est reprise par le rapport préconisant « d’introduire dans la loi une exigence d’explicabilité des algorithmes, différenciée selon le public visé, qui porterait sur leur logique de fonctionnement et sur les critères retenus pour apprécier la pertinence des informations finales tirées des données utilisées ». Ce facteur d’explicabilité est d’autant plus pertinent qu’il peut permettre au professionnel de santé de mieux se concerter avec le patient qu’il informe, au profit de la consolidation de la relation médicale et de meilleurs échanges quant au choix du traitement. Au surplus, le principe d’explicabilité est distingué de la notion de transparence de l’algorithme consistant à rendre public le code source, moyen ne permettant pas d’appréhender l’ensemble des mécanismes et des logiques fondant la décision médicale
Le développement de la mise en œuvre du principe d’explicabilité suppose une formation adaptée des médecins concernant l’apport de l’IA en santé et la présentation des outils et des moyens d’exploitation de ceux-ci à l’occasion du parcours de soins. Ceci nécessite notamment des connaissances en matière d’encodage de leurs informations pour les « rendre lisibles et réutilisables par la machine » et des méthodes de structuration et de partage des données pour la mise en place du Health data hub. Dans ce sens, la Conférence des doyens des facultés de médecine a annoncé la mise en place, dès 2019, d’un « module de sensibilisation des étudiants aux enjeux de la médecine algorithmique dès le premier cycle des études médicales ». Par ailleurs, la directrice de l’Agence nationale du développement professionnel continu a déclaré que, dès 2019, l’intelligence artificielle serait une orientation prioritaire de développement professionnel continu (DPC).
Le principe de l’effectivité du consentement de la personne
A l’égard de la collecte des données de santé, indispensable au déploiement de la recherche et à l’amélioration du système de soins, le rapport fait état de la nécessité d’une plus grande sensibilisation des patients, des professionnels et des institutions sanitaires par des campagnes d’information étendues et des formations adaptées pour les professionnels. Du point de vue du consentement, est préconisé le maintien du droit existant, consolidé par des recommandations de bonnes pratiques à établir avec les professionnels de santé et les représentants des patients sur les modalités du recueil du consentement afin de garantir son effectivité pour l’utilisation de ses données de santé.
Concernant le recours à un algorithme d’aide à la décision médicale, est préconisée une information individuelle préalable spécifique complémentaire. Monsieur Cyrille Dalmont propose la mise en place d’un pictogramme sur « tous les actes, images ou ordonnances réalisée par une intelligence artificielle afin d’en avertir sans équivoque soignants et patients ». Les patients pourraient alors, au nom du principe de garantie humaine, se « prévaloir d’une intervention humaine en dernier recours, qui devra dorénavant s’imposer comme un droit ». En outre, concernant le consentement, les experts auditionnés en vue du rapport estiment que l’article L.1111-4 du code de la santé public relatif au consentement reste suffisant mais qu’il conviendrait d’en aménager les modalités pratiques lors du recours à la médecine algorithmique. Monsieur David Gruson propose la mise en place d’un dispositif de recueil de consentement préalable séquentiel tenant compte des différentes options potentielles susceptibles de se réaliser ou pas lors du parcours du patient. Est aussi évoquée la « mise en place de mécanismes de recueil de consentement plus protecteurs, notamment pour les personnes les plus vulnérables telles que les personnes âgées ou les personnes handicapées ». Le soutien de la personne de confiance ou des associations de représentants des patient, ayant bénéficié d’une formation spécifique, en tant qu’aides à la réflexion concernant une proposition formulée par un algorithme, est mis en avant. Des recommandations de bonnes pratiques sont préconisées par le rapport pour adapter le recueil du consentement du patient aux actes et traitements proposés après l’intervention d’un algorithme.
L’organisation d’un nouveau cadre de réflexion éthique sur l’intelligence artificielle en santé
En raison de l’émergence d’un grand nombre de questionnements éthiques liés au numérique en santé, le rapport envisage la mise en place d’un nouvel organe de réflexion. A ce titre, il s’interroge sur la forme que celui-ci devra prendre. Soit, il pourrait être intégré en tant que nouvelle compétence du Comité consultatif national d’éthique (CCNE) actuel. Soit, pourrait être constitué un nouvel organe ad hoc formellement détaché du CCNE. Il précise par ailleurs qu’une intervention législative sera nécessaire lors de la prochaine loi de bioéthique puisqu’il conviendra d’associer son objet et ses compétences aux «problématiques liées aux innovations et aux usages du numérique en santé ». Le groupe de travail, commandé par le CCNE, avec le concours de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA), préconise « un élargissement de l’objet et des missions du CCNE dans la prochaine loi de bioéthique », ainsi que l’évolution de celui-ci en « Comité national d’éthique » intervenant sur les enjeux éthiques des sciences de la vie et de la santé, des sciences, technologies, usages et innovations du numérique. Le rapport nuance toutefois en précisant qu’ « il faudra probablement se garder d’investir le CCNE d’une mission de régulation appliquée à l’intelligence artificielle » afin de ne pas modifier sa nature consultative et son autonomie sur les questions portant sur les conséquences des évolutions techniques dans les sciences de la vie et de la santé, à l’égard des acteurs décisionnels que sont les pouvoirs publics. Monsieur Cédric Villani propose une solution transitoire : la création, lors de la prochaine loi de bioéthique, d’un comité d’éthique spécialisé dans le numérique en santé au sein du CCNE. Ceci aurait pour avantage de ménager un temps de réflexion sur les meilleures modalités futures en vue d’instituer une instance spécifique du numérique, pas seulement axée sur la bioéthique, de « permettre un transfert de savoir-faire efficace (du CCNE) sur la façon dont doit fonctionner un comité d’éthique indépendant », tout en démontrant «clairement, vis-à-vis des citoyens, que l’on a bien perçu l’urgence d’une réponse appropriée ». Le rapport émet la proposition de « créer à titre transitoire un comité d’éthique spécialisé sur le numérique en santé au sein du CCNE puis, à terme, un nouvel organe de réflexion éthique sur l’intelligence artificielle ».
La proposition d’un futur observatoire européen des développements et des usages de l’intelligence artificielle
Cette proposition d’un futur observatoire des développements et des usages de l’intelligence artificielle, est envisagée par Madame Laurence Devillers. Cet organisme aurait pour vocation d’identifier les dérives potentielles de l’IA dans le monde entier concernant les « risques générés par les objets connectés – et spécifiquement les agents conversationnels – qui apportent une nouvelle dimension dans l’interactions – la parole – et pourraient devenir un moyen d’influencer les individus ». Il serait composée d’informaticiens, d’économistes du comportement et de juristes et serait, à ce titre, interdisciplinaire. Il pourrait aussi « comporter un laboratoire ouvert à la société, aux élèves d’âge scolaire et plus largement aux citoyens ». Monsieur Raja Chatila précise qu’une telle structure « aurait davantage de pertinence à l’échelle européenne plutôt que nationale ». In fine, le rapport abonde pour la création d’un observatoire européen des développements et des usages de l’intelligence artificielle en l’appréhendant comme un « instrument de vigilance nouveau, bien adapté à la surveillance des usages de l’intelligence artificielle dite émotionnelle ».
Vers la promotion de certifications spécifiques des algorithmes dans le domaine de la santé uniquement envisageables au niveau européen
Concernant la certification des algorithmes à finalité médicale, notamment ceux d’aide au diagnostic, à la décision thérapeutique, à la prescription médicamenteuse, le droit commun applicable aux dispositifs médicaux est actuellement utilisé à défaut de cadre spécifique à l’intelligence artificielle. Le rapport précise qu’il entre « dans la définition du dispositif médical établie par la directive 93/42/CEE telle que modifiée par la directive 2007/47/CE, dont l’article 1er définit le dispositif médical comme « tout instrument, appareil, équipement, logiciel, matière ou autre article, utilisé seul ou en association, y compris le logiciel destiné par le fabricant à être utilisé spécifiquement à des fins diagnostique et/ou thérapeutique, […], destiné par le fabricant à être utilisé chez l’homme à des fins […] de diagnostic, de prévention, de contrôle, de traitement ou d’atténuation d’une maladie». Il note par ailleurs que « cette notion de logiciel est également reprise dans le règlement européen du 5 avril 2017 relatif aux dispositifs médicaux, qui entrera en vigueur le 26 mai 2020 ». Le rapport affirme que la certification d’un dispositif médical fait « la part belle » au fabricant. En effet, celui-ci, devant se conformer à des « exigences en matière de sécurité et d’efficacité, qui dépendent de la destination du dispositif médical et de sa classe de risque », choisit l’organisme chargé d’évaluer la conformité du dispositif médical sur la base d’investigation clinique qu’il a réalisées. Dès lors que l’organisme valide la conformité, le fabricant peut « apposer un marquage CE sur le dispositif médical et rédiger une déclaration de conformité UE, conditions indispensables à une mise sur le marché européen ». L’agence nationale de sécurité du médicament et des produits de santé (ANSM), « autorité responsable de la surveillance des marché, ne peut effectuer des contrôles de conformité des dispositifs médicaux par des inspections annoncées ou inopinées et prononcer d’éventuelles mesures de police sanitaire », qu’une fois que la certification a été obtenue et postérieurement à la mise sur le marché.
Or, se fondant sur le rapport Villani considérant que «les procédures actuelles ne sont pas appropriées aux caractéristiques spécifiques de l’intelligence artificielle » dans la mesure « ou les technologies d’intelligence artificielles sont par nature des processus automatiques apprenants et donc extrêmement évolutifs » alors que le dispositif médical est « testé cliniquement à un instant et commercialisé sous cette forme immuable », le rapport préconise une évolution des procédés de certification des algorithmes à finalité médicale sur la base « de critères pertinents et sous une forme adaptée aux spécificités de l’IA » afin « d’éviter la diffusion de dispositifs d’intelligence artificielle susceptibles de mener à des erreurs en matière médicale, du fait par exemple d’un code algorithmique peu pertinent ou de bases de données comportant des biais ou des erreurs » et de « renforcer la confiance des individus et des professionnels de santé dans leur utilisation ». Dans ce sens, Monsieur Cédric Villani préconise la certification par une agence d’experts avec des techniques de vérifications par un « ensemble disparate de méthodes appliquées sur une partie du code », l’idée étant de vérifier « la manière dont la base de données a été constituée, en effectuant des tests, en introduisant des fausses données dans l’algorithme pour voir comment il se comporte ». Il préconise par ailleurs que la certification prenne « la forme de normes de qualité sur la façon dont un système doit être conçu et dont le code doit être rédigé ». Le rapport fait néanmoins état du champ restrictif de manœuvre de la France dans ce domaine, dans la mesure où il convient de se conformer à la réglementation européenne sur les dispositifs médicaux en matière de marquage CE pour la mise sur le marché européen. Par conséquent, il lui est impossible d’imposer à un fabricant de logiciel ayant obtenu un marquage CE, une certification complémentaire, ce qui a été par ailleurs rappelé par la Cour de justice de l’Union européenne lors de son arrêt du 7 décembre 2017. En effet, celle-ci risquerait d’être considérée comme une « restriction à l’importation d’un produit qui satisfait aux critères pour circuler librement au sein de l’Union européenne ». Seule le volontariat pourrait être envisageable selon la Haute autorité de la santé, lequel pourrait être promu par une « campagne régulière d’informations auprès des praticiens et établissements » pour répondre aux exigences de qualité renforcées préconisées par la France qui pourrait aussi en faire la promotion auprès des autorités européennes.
Les treize propositions du rapport Touraine sur l’intelligence artificielle
Le rapport Touraine émet treize propositions précises [1] concernant l’intelligence artificielle :
- Maintenir le principe d’une responsabilité du médecin qui, en l’absence de défaut établi de l’algorithme, ne peut être engagée qu’en cas de faute de sa part ;
- Préciser qu’une faute ne peut être établie du seul fait que le praticien n’aurait pas suivi les recommandations d’un algorithme, quand bien même celles-ci se révèleraient exactes ;
- Introduire un principe législatif de garantie humaine du numérique en santé ;
- Charger la Haute Autorité de Santé de rédiger des recommandations de bonnes pratiques pour la mise en œuvre concrète de ce principe de garantie humaine ;
- Mettre en place un Collège de garantie humaine à l’échelle d’un établissement ou d’un territoire plus large ;
- Définir un nouvel acte de télémédecine dit « de garantie humaine » permettant d’obtenir un deuxième avis médical en cas de doute sur les recommandations thérapeutiques de l’algorithme ;
- Introduire dans la loi une exigence d’explicabilité des algorithmes, différenciée selon le public visé, qui porterait sur leur logique de fonctionnement et sur les critères retenus pour apprécier la pertinence des informations finales tirées des données utilisées ;
- Développer la formation des professionnels de santé sur les apports de l’intelligence artificielle en santé et l’utilisation des données de santé générées au cours du parcours de soins ;
- Instaurer des outils pratiques nouveaux ou réactualisés pour garantir l’effectivité du recueil du consentement d’un individu à l’utilisation de ses données de santé ;
- Introduire une exigence d’information préalable du recours à un algorithme par le médecin au patient ou à son représentant légal ;
- Établir des recommandations de bonnes pratiques pour adapter le recueil de consentement du patient aux actes et traitements proposés après intervention d’un algorithme ;
- Créer à titre transitoire un comité d’éthique spécialisé sur le numérique en santé au sein du CCNE puis, à terme, un nouvel organe de réflexion éthique sur l’intelligence artificielle ;
- Promouvoir la création d’un observatoire européen de l’intelligence artificielle.
Ces différentes propositions témoignent de toute l’attention accordée par le rapport Touraine aux nouvelles problématiques du numérique et plus particulièrement à celles liées à l’intelligence artificielle. Il convient en effet, lors de la prochaine révision des lois de bioéthique, de pouvoir répondre aux nouveaux besoins législatifs générés par déploiement massif et démultiplié des techniques du numérique. Ce n’est qu’à cette condition qu’un équilibre pourra être maintenu entre, d’une part, la protection des usagers de santé et, d’autre part, le développement des dispositifs de l’intelligence artificielle dans un sens stratégique et concurrentiel au niveau européen et international.
Pour aller plus loin :
[1] Propositions n°41 à 53.
Nous remercions vivement le Bénédicte BEVIERE-BOYER, Docteure en Droit, Maître de Conférences-HDR en Droit Privé à l’UFR de l’Université de Paris 8 , co-directrice scientifique du Cycle de Droit et Bioéthique à la Cour de Cassation, de portée nationale et internationale, organisatrice de colloques sur des thématiques d’actualité en rapport avec le Droit de la Santé en collaboration avec les Universités chinoises et québécoises, pour partager son expertise professionnelle pour nos fidèles lecteurs de www.managersante.com
Biographie de Bénédicte BEVIERE-BOYER, :
Bénédicte BEVIERE-BOYER, Docteur en Droit, est Maître de Conférences-HDR en Droit Privé à l’UFR de l’Université de Paris 8 (Unité de Formation et de Recherche). Elle est également directrice adjointe du Centre de recherches juridique de droit privé et Droit de la Santé (EA1581). Elle assure la co-direction scientifique d’un Cycle de Droit et Bioéthique à la Cour de Cassation (entrée libre), de portée nationale et internationale, sur des thématiques d’actualité en rapport avec le Droit de la Santé, le numérique, (Médecine personnalisée, Big Data, Humain en transformation transhumanisme, vieillissement, Fin de vie). Elle organise régulièrement des colloques sur des thématiques d’actualité en collaboration avec des Universités chinoises et québécoises. Elle conduit ses travaux de recherches pluri et interdisciplinaires dans les domaines du droit de la bioéthique, de l’éthique et du numérique. Elle dirige le M1 Droit de la santé et organise une nouvelle formation en M2 Droit de la santé sur le Numérique et l’Intelligence Artificielle (I.A.). Auteur d’un ouvrage et ayant dirigé plusieurs ouvrages collectifs, elle a publié de nombreux articles sur la recherche, l’innovation, le numérique, les données de santé, la relation de soins, la protection des droits de la personne, la bioéthique, le Dossier Médical Personnel, etc…. Elle enseigne sur des thématiques autour droit de la santé: droits des patients, droit de la recherche et de l’innovation, droit du médicament, déontologie, éthique, mais aussi sur l’éthique dans le domaine des assurances. Auparavant, elle a enseigné dans le cadre du cursus universitaire français classique (LMD), essentiellement en droit privé général et en droit des affaires.
ÉVÉNEMENTS 2019
2 Colloques internationaux GRATUITS à ne pas manquer
7ème Colloque international France-Chine (Paris)
- Jeudi 20 Juin 2019 « La Souveraineté Numérique à l’épreuve des
interactions GAFAM-BATX-Etats-Entreprises »
L’Université Paris 8, le Centre de recherche de droit privé et droit de la santé (EA 1581), Forces du droit, l’Université de Science politique et de droit de Chine (UPEC) et Chambre des notaires de Paris organisent un colloque sur le thème « La souveraineté numérique à l’épreuve des interactions GAFAM-BATX-Etats-Entreprises » à la Chambre des notaires de Paris. (Entrée Gratuite, Inscription obligatoire)
8ème Colloque international France-Chine (Paris)
L’Université Paris 8, le Centre de recherche de droit privé et droit de la santé (EA 1581), Forces du droit, l’Université de Science politique et de droit de Chine (UPEC) et Chambre des notaires de Paris organisent un colloque sur le thème « Responsabilité numérique » à la Chambre des notaires de Paris. (Entrée Gratuite, Inscription obligatoire)
PUBLICATION D’OUVRAGE 2019
co-écrit avec Bénédicte BEVIERE-BOYER
Résumé de l’ouvrage :
La bioéthique s’intéresse aux questions éthiques soulevées par les progrès techno-scientifiques. La loi a vocation à encadrer ces progrès afin de s’assurer que la science reste au service de la personne et non l’inverse.
C’est dans cette optique qu’ont été adoptées les différentes lois bioéthiques en 1994. Parce que la médecine est en constante évolution, ces lois font l’objet d’un réexamen régulier.
La prochaine révision sera sans doute l’occasion de combler les lacunes ou imperfections de la loi auxquelles le juge est régulièrement confronté. Les progrès de la médecine concernent tous les stades de la vie de la personne.
Ses incidences juridiques peuvent être mesurées de la conception à la mort de la personne.
Cet ouvrage est issu des actes du cycle de conférences de l’année 2018, à la Cour de cassation.
Cycle de DROIT & BIOÉTHIQUE 2019
avec Bénédicte BEVIERE-BOYER
5 quai de l’Horloge
75001 Paris
www.courdecassation.fr
CALENDRIER 2019 : en ligne
Présentation du Cycle :
« La bioéthique s’intéresse aux questions éthiques soulevés par les progrès technoscientifiques. La loi a vocation à encadrer ces progrès afin de s’assurer que la science reste au service de la personne et non l’inverse.
C’est dans cette optique qu’ont été adoptées les différentes lois bioéthiques dès 1994. Parce que la médecine est en constante évolution, ces lois font l’objet d’un réexamen régulier. La prochaine révision, prévue en 2018, sera sans doute l’occasion de combler les lacunes ou imperfections de la loi auxquelles le juge est régulièrement confronté.
Les progrès de la médecine concernent tous les stades de la vie de la personne. Ses incidences juridiques peuvent être mesurées de la conception à la mort de la personne. »
Et suivez l’actualité sur www.managersante.com,
Officiel du Salon Européen #SANTEXPO
Cliquez sur les étoiles et votez :