Qui devrait être responsable des erreurs médicales causées par l’IA?

Les algorithmes d'apprentissage automatique (MLA) analysent de grandes quantités de données à des vitesses fulgurantes. Des ensembles de données autrefois trop volumineux pour que les humains puissent les évaluer correctement peuvent maintenant être exploités pour prendre des décisions médicales vitales. La question brûlante est de savoir si l'IA devrait être autorisée à faire ces choix. Et, si oui, comment cela affecte-t-il les médecins, les patients et les cadres juridiques et réglementaires actuels??

Les experts du Health Ethics and Policy Lab de Zurich, en Suisse, ne sont qu'un groupe qui commence à sonner l'alarme sur l'utilisation de l'IA. Un article récemment publié exprime sa préoccupation quant au fait que les patients pourraient se voir refuser des traitements vitaux en raison de préjugés au sein des députés.

Le nœud du problème tourne autour de la façon dont les députés sont développés. Le document suggère que les systèmes automatisés ont été principalement formés à l'aide de données extraites de patients de race blanche de sexe masculin. Ce «manque de diversité» peut conduire à des biais qui provoquent des erreurs. En conséquence, les groupes marginalisés peuvent finir par souffrir de taux d'échec médical plus élevés.

Un autre point de pression est créé par les biais humains existants dans les «intrants neuronaux» exploités par les députés. Ces ensembles de données massifs créent le potentiel pour l'IA d'imiter ou de ré-exprimer les biais humains existants.

Les types de biais qui pourraient potentiellement passer des humains à l'IA comprennent les préjugés envers un indice de masse corporelle (IMC) élevé, les groupes raciaux ou ethniques et la discrimination fondée sur le sexe, ce qui est très inquiétant, car les chercheurs suggèrent déjà que l'IA est capable de faire la vie et décisions de décès.

Au Royaume-Uni, des chercheurs ont récemment publié une étude dans laquelle l'IA prédisait correctement la mortalité prématurée mieux que les méthodes traditionnelles. Les chercheurs pensent que cela pourrait permettre aux algorithmes d'utiliser des «facteurs démographiques, biométriques, cliniques et de style de vie» pour distinguer les patients qui bénéficieraient d'une intervention plus précoce. Cependant, tout échec à localiser les patients en raison de biais hérités pourrait entraîner l'interruption du traitement à des groupes particuliers.

Une autre étude suggère que l'IA peut identifier avec succès les patients cancéreux qui courent un risque élevé de mortalité à 30 ou 150 jours. Selon cette recherche, l'IA pourrait être utilisée pour signaler les patients avant de recevoir une chimiothérapie coûteuse. L'idée étant qu'il serait peut-être préférable de répartir ce traitement coûteux ailleurs.

La recherche sur les marchés mondiaux, qui a mené une étude sur les robots médicaux, a déclaré à ProPrivacy.com que «des rapports ont suggéré que les patients atteints de cancer souffrant de saignements sévères se voyaient recommander un médicament qui pourrait aggraver les saignements».

À une autre occasion, un algorithme d'IA conçu pour prédire quels patients atteints de pneumonie pouvaient être libérés en toute sécurité - a incorrectement décidé que les patients ayant des antécédents d'asthme avaient un risque de décès plus faible. RGM nous a dit:

«C'est parce que cela était vrai d'après les données de formation, car les patients souffrant d'asthme se rendaient généralement aux soins intensifs, recevaient des soins plus agressifs et étaient donc moins susceptibles de mourir. L'algorithme n'a pas compris cela et a utilisé la règle selon laquelle si une personne souffrait d'asthme, elle devrait être traitée en ambulatoire. »

Shailin Thomas, chercheur associé à l'Université Harvard, note que «même les meilleurs algorithmes entraîneront une responsabilité potentiellement substantielle un certain pourcentage du temps». Ce potentiel inhérent de responsabilité crée un casse-tête, car il est difficile de comprendre exactement qui devrait être détenu. responsable de ce qui est finalement un pourcentage garanti d'erreurs.

Karl Foster, directeur juridique de Blake Morgan, a déclaré à ProPrivacy.com que, pour le moment, les cliniciens resteront responsables:

«En fin de compte, les cliniciens sont responsables de leurs patients; c'est un principe primordial de la profession médicale. Il est peu probable que l'utilisation de l'IA change cette position, certainement à court terme »

«Si nous imaginons que l'IA interroge les résultats des tests et détermine qu'un résultat particulier augmente le risque de développer une condition médicale spécifique chez un patient, en fin de compte - et actuellement - c'est au clinicien d'enquêter plus avant. Le clinicien restera responsable de l'interprétation des données fournies par l'IA à la lumière d'autres informations cliniques et de la prise de décision sur le meilleur traitement. »

Le psychiatre et data scientiste Carlo Carandang, quant à lui, estime que la responsabilité pourrait incomber aux fabricants:

«Les applications d'IA seront traitées comme des dispositifs médicaux, de sorte que les performances de ces applications d'IA cliniques seront de la responsabilité des entreprises qui les construisent, ainsi que de la FDA et d'autres agences de réglementation qui supervisent ces dispositifs médicaux.»

La recherche sur les marchés mondiaux (RGM) a déclaré à ProPrivacy.com que, bien que les cliniciens semblent actuellement rester responsables «en cas de préjudice causé par un contenu incorrect plutôt que par une mauvaise utilisation d'un algorithme ou d'un appareil, la responsabilité doit incomber à ceux qui ont conçu et puis la qualité l'a assuré. »RGM note que« cette ligne n'est peut-être pas si facile à définir. »

Thomas craint que la responsabilisation des entreprises ne les conduise à cesser complètement de produire les algorithmes. Cela pourrait être extrêmement préjudiciable à l'industrie médicale, car l'IA prouve déjà son potentiel.

En Chine, par exemple, les chercheurs ont utilisé un algorithme pour détecter les tumeurs cérébrales avec plus de succès que les meilleurs médecins du pays.Ces types de percées peuvent sauver des vies - mais seulement si les entreprises qui produisent de l'IA peuvent le faire sans soucis constants de responsabilité.

Michael Carson, avocat principal chez Fletchers Solicitors, estime qu'au Royaume-Uni, la législation actuelle est apte à gérer l'émergence de l'IA médicale. Carson a déclaré à ProPrivacy.com que:

«Nous devons considérer l'IA comme un autre équipement hospitalier. Toute erreur ou diagnostic erroné fait par l'IA doit être traité comme une réclamation pour négligence médicale, l'IA n'étant qu'un outil utilisé par l'hôpital..

«La loi est probablement déjà suffisamment robuste pour traiter les problèmes liés aux dysfonctionnements de l'IA. En réalité, l'IA peut être considérée comme un autre mélange d'équipements et de logiciels, déjà répandu dans l'ensemble du National Health Service. »

RGM, cependant, note que la législation actuelle peut ne pas faire une distinction suffisante entre «les cas où il y a une erreur de diagnostic de dysfonctionnement d'une technologie» et les cas causés par «l'utilisation de données inexactes ou inappropriées».

En fin de compte, l'IA ne peut agir que sur les données qui lui sont fournies. Si ces données sont incorrectes ou biaisées, avant d'être entrées - il est difficile de comprendre comment les fabricants peuvent être en faute. En revanche, il semble difficile de blâmer les professionnels de la santé pour les décisions prises de leurs mains.

Foster a déclaré à ProPrivacy.com que les régimes réglementaires actuels aux États-Unis et en Europe "n'anticipent pas actuellement l'apprentissage automatique là où les logiciels ou les ensembles de données sont conçus pour évoluer". Par conséquent, les questions entourant la responsabilité évolueront probablement avec le temps et les régulateurs devront rester flexible pour changer.

La question de savoir qui devrait être responsable des députés est une question complexe et il existe déjà un certain désaccord. Une chose semble certaine, en raison de la vitesse à laquelle l'IA médicale fait son apparition, les législateurs doivent se méfier et doivent agir rapidement pour s'assurer que les réglementations sont prêtes à faire face. Trop souvent, lorsque de nouvelles technologies émergent, des percées frappent le marché prématurément et les législateurs sont contraints de rattraper leur retard.

L'un des plus gros problèmes de l'IA est que les cliniciens ne comprennent pas toujours pourquoi les députés prennent des décisions. En effet, l'IA fait des choix en utilisant des ensembles de données massifs que les humains ne peuvent pas traiter. RGM explique qu'en raison de l'amélioration des taux de réussite:

«Les médecins peuvent se retrouver à justifier à tort les décisions prises par l'IA en raison d'un concept bien documenté connu sous le nom de biais d'automatisation. Ici, les humains peuvent avoir plus tendance à faire confiance à une machine qu’à eux-mêmes. »

Ce potentiel est extrêmement préoccupant, en particulier lorsque les experts avertissent que les algorithmes peuvent être préprogrammés avec des biais humains susceptibles de provoquer des fautes professionnelles..

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me