ManagerSante.com®

Faut-il appréhender le risque de néo-taylorisme avec l’accélération du numérique dans le secteur de la santé ? Denis BISMUTH nous invite à la vigilance.

Nouvel Article rédigé pour ManagerSante.com par Denis BISMUTH, Chargé du pilotage de l’innovation pédagogique de l’entreprise Isokan, superviseur certifié de l’EMCC Global Supervision Individual Award (ESIA, European Mentoring and Coaching Council) et animateur de la commission recherche. Il est Dirigeant du cabinet de coaching Métavision.

Denis BISMUTH est auteur de plusieurs livres et co-auteur d’un ouvrage collectif de référence publié en Octobre 2021 chez LEH Edition, sous la direction de Jean-Luc STANISLAS, intitulé « Innovations & management des structures de santé en France : accompagner la transformation de l’offre de soins« 

N°10, Janvier 2022

Nos organisations sont depuis quelques années incitées à entreprendre des démarches de digitalisation et de développement d’outils d’intelligence artificielle.

L’idée d’une santé digitalisée fait écho à un réel besoin de rationaliser les pratiques et de réaliser des économies substantielles dans la gestion du système de santé et d’automatiser certaines procédures couteuses en temps, de peu de valeur ajoutée et pour lesquelles les risques d’erreurs humaines sont importants.

Que ce soit pour la gestion des dossiers des malades ou l’organisation du travail, l’assistance d’une informatique performante est sans aucun doute une condition nécessaire à l’atteinte de ces objectifs.

Le « big data » est une ressource d’information qui permet de mieux décider et donc de mieux agir.

Mais comme tous les outils efficaces l’Intelligence Artificielle comporte un certain nombre de risques auquel il est nécessaire d’être attentif.

 Quand l'expertise cherche à remplacer l'expérience.

Cette façon de concevoir la santé contient un risque de se transformer en une sorte « d’ultra taylorisme » :

Le choix du taylorisme est de développer des approches scientifiques et techniques du travail qui permet de se débarrasser du « facteur humain ». Faire que l’exécution du travail dépende le moins possible de l’opérationnel et son expérience et faire dépendre l’activité de l’expertise technoscientifique des systèmes experts, élaborée dans les bureaux d’étude et les laboratoires. Cette expertise fonde à la fois les processus de travail  et les procédures  de  contrôle de l’activité de l’exécution. Comme dans les usines Ford du début du 20ième siècle, l’opérationnel n’a pas besoin d’être compétent, expérimenté et engagé par l’amour du métier pour pouvoir produire. Il pourrait être transformé en une sorte d’exécutant sans identité professionnelle, facilement interchangeable mais incapable de se donner des limites et de percevoir les risques et les dangers de ce qu’on lui demande de faire.

Une telle conception d’un système « intelligent » (smart) renvoie à la capacité de collecte et de traitement automatique et rationnel de l’information au travers de systèmes artificiels.

La légitimité à décider est dévolue à une machine capable de traiter une masse d’informations rationnelles qu’aucun être humain ne pourrait gérer. Ces systèmes « d’intelligence » artificielle sont d’une puissance telle, qu’elles sont capables de battre un champion du monde d’échec ou de vaincre tous les humains à un jeu aussi complexe que le jeopardy[1].

Le Big data et l’intelligence artificielle ont permis d’atteindre un niveau de division du travail jamais atteint. Si le fordisme avait permis de déposséder l’acteur de la propriété de ses actes, l’intelligence artificielle permet de déposséder l’acteur de sa légitimité à prendre des décisions sur ses actes. Il est ainsi dépossédé d’une part importante de ses possibilités de juger et d’évaluer ses actes. Il est donc ainsi dépossédé de toutes possibilités d’avoir une éthique et de se donner des limites. On voit déjà les dégâts auxquels conduisent ces stratégies de séparation de l’acteur et de ses actes dans l’agriculture industrielle « moderne ». Les dégâts sur la santé des individus, sur les collectifs humains et sur la biodiversité. L’acteur est rendu aveugle aux conséquences à long terme de ses actes et ne peut donc plus agir avec une éthique et une morale. C’est peut-être là un des grands dangers de la dépendance à l’intelligence artificielle. Ne plus avoir à posséder l’ensemble des informations nécessaires à ses actes et les décisions que l’on prend, nous dépossèdent aussi de la capacité à agir selon une éthique personnelle, non pas que nous soyons dépourvus de sens moral, mais parce qu’on n’a pas les informations nécessaires à l’élaboration de cette éthique.

L’intelligence artificielle nous empêche de prendre la distance nécessaire, englobant l’information nécessaire pour prendre des décisions sur notre éthique. Débarrassé de la nécessité de prendre des décisions, l’acteur est définitivement dépossédé de la propriété de ses actes. La mécanisation taylorienne avait déjà commencé à déposséder l’acteur de son activité en remplaçant a force de travail par la machine et en ne laissant à l’homme que la possibilité de conduire la machine, et donc de décider de son fonctionnement. L’intelligence artificielle comme « aide à la décision » finit d’enlever à l’humain sa dernière parcelle de décision et le privé ainsi de toutes possibilités de prendre du recul et d’avoir un regard à long terme sur ce qu’il fait et les conséquences de ses actes.

L’automatisation en général a un effet de dépossession. Même si l’on peut ne pas regretter le temps où des milliers d’ouvriers creusait à la pelle et à la pioche la terre des grands ouvrages comme les tunnels ou les ponts, on peut se poser la question de la limite de la dépossession du travail.

La dépossession de l’éthique de son action rend l’acteur incapable d’intervenir dans le projet auquel il appartient.  C’est peut-être une explication parmi tant d’autres de la perte de sens dont se plaignent souvent les opérationnels, les difficultés de recrutement, et le turn over dans le secteur de la santé.

Vers une disparition de l'éthique de l'acteur ?

Nous sommes passé d’une conception religieuse de la mission de soignante au 19 ième siècle, ou l’engagement quasi sacrificiel palliait tant bien que mal l’absence d’expertise technique, à une santé ou le geste technique et la formation a permis l’émergence d’une classe de professionnel du soin. Ce qui a été une condition nécessaire à l’élaboration un système de soin des plus performant. On a créé par ce travail de qualification une classe de professionnels qui pouvaient avoir une éthique parce qu’ils étaient propriétaires de leurs actes en étant propriétaire de la connaissance et de la légitimité à décider de leurs actes. Dans certains secteurs d’activité, les systèmes experts ont permis de remplacer ces professionnels expérimentés par des exécutants spécialisés dépossédés de leur légitimité à décider de leurs actes et à la merci de ceux qui se sont appropriés la chaine de valeur du travail : Les financiers. Si à court terme ce choix peut paraitre économique il porte en lui des risques encore mal mesurés

En étant dépossédé de son activité l’acteur ne peut plus percevoir clairement les limites de son action. Il a donc du mal à donner du sens à son action et à avoir une idée claire de sa mission et de son identité professionnelle. Fasciné par la magie de la technique qui occupe notre esprit, on a du mal à regarder du côté des conséquences.

Ce n’est pas la première fois qu’on rêve de voir la technologie remplacer l’homme. On le voit tous les dix ans en éducation ou à chaque nouvelle technologie, on réactive le rêve impossible de l’école sans enseignant. Chaque progrès technique nous fascine et notre rêve de toute puissance nous rend aveugle au risque lié à cette nouvelle technologie.

Quand va-t-on arrêter d’avoir peur du vivant, de son aléatoire et du risque d’échec ? Quand va-t-on cesser de vouloir reconstruire inlassablement ces golems technologiques qui nous donnent l’illusion du contrôle ?

C’est cette peur de ne pas pouvoir contrôler le vivant qui nous jette dans le labyrinthe de la technique qui nous absous de notre peur en nous privant de notre responsabilité avec notre assentiment. Il n’est bien sûr pas souhaitable de mettre fin aux avancées technologiques, mais plutôt de re-examiner le rapport à la technique.

L’idée n’est pas de se défaire de toute technologie. Mais bien que nous mettions ces techniques à notre service.

Pour plagier la phrase de Roger l’Estrange[2] on peut dire qu’il en est de la technique comme l’eau et le feu : ce sont de bons serviteurs mais de mauvais maîtres.

L’ensemble des microdécisions que doit prendre l’opérationnel pour s’auto réguler, ne peut pas devenir un espace socialisé et technologisé. Car si la science pouvait résoudre les problèmes, nous n’aurions pas besoin de démocratie. Et nous n’aurions pas non plus besoin de notre intuition. Tous les travaux sur la décision [3] montrent que les décisions les plus intelligentes ou celles qui ont le moins de risques de conduire à des absurdités ne peuvent venir que d’une confrontation d’intelligences humaines. La machine qui compile de l’information pour produire une décision ne peut pas être qualifiée d’intelligente. L’«intelligence» ce n’est pas la puissance cognitive, mais la capacité à être « en intelligence avec ». Etre en intelligence avec les autres ou son milieu c’est d’abord et avant tout savoir créer des relations harmonieuses et respectueuses avec les humains et l’environnement. Si la machine peut réaliser des performances extraordinaires dans la gestion des informations et constituer une assistance de puissance cognitive, elle n’a pas pour vocation à produire des relations harmonieuses parce qu’elle ne peut être pourvue d’une éthique ou d’une conscience. Comme le montre Yves Clot [4] dans ces différentes recherches, la production d’une décision intelligente est le plus souvent le résultat d’une confrontation. Une confrontation entre humain. Or le plus souvent l’individu subit le diktat de la machine. Combien d’entre nous ont se sont trouvé dans leur démarches administratives, devant une affirmation tout aussi absurde qu’imparable : « c’est l’ordinateur qui l’a dit donc on ne peut rien faire »

Il existe un réel risque que l’expertise de la machine remplace peu à peu l’expérience sans qu’on y prenne trop cas.[5] Notre relation à l’intelligence artificielle repose souvent sur un biais de substitution. La machine ne sait rien ! Le sens est dans celui qui prend l’information, pas dans la machine. L’intelligence artificielle saura prendre une décision quand notre stylo saura nous dire quoi écrire.

Comment développer une posture de vigilance ?

Comme la machine l’a été pour la force physique, l’intelligence artificielle est un amplificateur de puissance.

En même temps qu’elle amplifie la puissance elle amplifie le risque de biais cognitif.  Ce qui nous oblige à amplifier notre vigilance par rapport aux informations que ces systèmes automatiques délivrent.

Il est nécessaire de mettre en œuvre les réflexes de la lutte anti-biais. Les mêmes que ceux qui peuvent nous servir dans l’utilisation des réseaux sociaux.

Quelques conseils de bon sens dans l’intérêt de la raison :

  • Ne pas croire:  Les réseaux sociaux et leur manière de diffuser l’information nous fait faire au quotidien l’expérience de notre tendance à croire sans vérifier ce qu’on appelle les infox (ou fake news).
  • Vérifier : Réinterroger les processus de décision : Comment on a fait pour arriver à ces conclusions ? Quel échantillon ? Quelle méthode ?
  • Situer l’information : qui a produit cette décision ? Quand a-t-elle été produite ? Quel est l’intérêt de son émetteur à communiquer cette information : qu’est-ce qu’il gagne ? Qu’est-ce qu’il espère obtenir de moi ?
  • Demander leur avis aux autres. Accepter de critiquer sa perception des choses consiste le plus souvent à demander à ceux de son entourage leur manière de voir les choses. On peut même inciter ceux qui ne sont pas d’accord avec la décision à d’argumenter. Échanger avec ceux qui ne pense pas comme nous nous permet de penser « à côté » c’est à dire de nous décentrer par rapport à nos biais cognitifs. Il n’est pas question de cesser de penser par soi-même, mais plutôt de mettre à l’épreuve nos manières de penser pour pouvoir les valider ou les critiquer.

Notes :

[1] Jeu qui consiste à retrouver la question à partir de la réponse.

[2] Il en est de nos passions comme l’eau et le feu : ce sont de bons serviteurs et de mauvais maitres.

[3] E. Morel : les décisions absurdes et comment les éviter.

[4] Yves Clot Professeur de Psychologie du Travail au CNAM. « action et connaissance cliniqua en activité », 2004

[5] IA ou GAFI ? L’intelligence artificielle un mythe ?  http://denisbismuth.over-blog.com/2019/06/ia-ou-gafi-l-intelligence-artificielle-un-mythe.html

Bibliographie pour aller plus loin :

Ouvrages :

Morel E. : les décisions absurdes et comment les éviter. Folio Essai   2014

Sigaud O., Buffet O. Processus décisionnels de Markov en intelligence artificielle

Olivier Sigaud :  Animatlab.  LIP6 – Laboratoire d’Informatique de Paris 6

Olivier Buffet : MAIA – Autonomous intelligent machine. INRIA Lorraine, LORIA – Laboratoire Lorrain de Recherche en Informatique et ses Applications

Largouët C.: Intelligence Artificielle pour l’aide à la décision des

systèmes dynamiques : Diagnostic, Prévision, Recommandation d’actions.     https://hal.inria.fr/tel-02437159/document

Article :

Intelligence artificielle : Faut-il se méfier des algorithmes ?  https://www.forbes.fr/technologie/intelligence-artificielle-faut-il-se-mefier-des-algorithmes/

Nous remercions vivement Denis BISMUTH, Chargé du pilotage de l’innovation pédagogique de l’entreprise Isokan, superviseur certifié de l’EMCC Global Supervision Individual Award (ESIA), animateur de la commission recherche de l’European Mentoring and Coaching Council (fédération de coach), Dirigeant du cabinet de coaching Métavision) et auteur de plusieurs ouvrages, pour partager régulièrement son expertise professionnelle pour nos fidèles lecteurs de ManagerSante.com

Biographie de l'auteur : 

Chargé du pilotage de l’innovation pédagogique de l’entreprise Isokan, il accompagne les entreprises dans la mise en place de l’organisation apprenante. il anime des supervisions de coach  et de dirigeant.
Denis BISMUTH est membre et  Animateur de la commission recherche de l’European Mentoring and Coaching Council  EMCC France (fédération de coach). Il est superviseur certifié de l’EMCC Global Supervision Individual Award (ESIA).
Dirigeant du cabinet de coaching Métavision depuis 2000, il accompagne des grands groupes industriels comme des PME et des entreprises du secteur social qui font le choix de faire évoluer leurs pratiques managériales dans  le sens d’une responsabilisation des acteurs. Il a développé une modalité de professionnalisation par la supervision :
les groupes de coprofessionnalisation© qui lui permettent de superviser le management intermédiaire, les coaches et les dirigeants.
Spécialisé dans l’Audit d’entreprise et de centres  de formation innovants il les accompagne dans leur transformation vers une organisation apprenante.
Il est également auteur de nombreux articles publiés dans l’excellente revue HBS (Harvard Business Review)
 
ManagerSante.com soutient l’opération COVID-19 et est partenaire média des  eJADES (ateliers gratuits)
initiées par l’Association Soins aux Professionnels de Santé 
en tant que partenaire média digital

 Parce que les soignants ont plus que jamais besoin de soutien face à la pandémie de COVID-19, l’association SPS (Soins aux Professionnels en Santé), reconnue d’intérêt général, propose son dispositif d’aide et d’accompagnement psychologique 24h/24-7j/7 avec 100 psychologues de la plateforme Pros-Consulte.

Denis BISMUTH

Directeur de l’innovation pédagogique chez Isokan Formation

Quitter la version mobile