
Paris, le samedi 14 janvier 2023 - A en croire les thuriféraires de l’intelligence artificielle (IA), des pans entiers de l’activité humaine seraient en passe d’être transformés par l’essor de cette technologie basée sur le « machine Learning » et l’algorithmie.
En 2018, lors de sa présentation du programme AI for Humanity déclinant la stratégie de la France en la matière, Emmanuel Macron annonçait vouloir créer « un environnement réglementaire et financier favorable à l’émergence de champions de l’IA ». Parmi les engagements du Gouvernement français apparaissait au premier plan la mise en place d’une « réflexion sur les enjeux éthiques liés au développement des technologies d’IA ».
Trois ans et demi (!) après leur saisine par le Premier ministre, le CCNE (Comité consultatif national d’éthique) et le CNPEN (Le Comité national pilote d'éthique du numérique) ont remis leur avis sur les systèmes d’intelligence artificielle appliqués au diagnostic médical (SIADM*).
Une vision très artificielle de l’intelligence
Le CCNE note : « l’écart est souvent important entre les promesses suscitées par lestechnologies d’IA, les représentations que le public se fait de l’intelligence artificielle en santé et la réalité de ce que peuvent et ne peuvent pas faire les SIA appliqués à lamédecine ».
Ainsi, l’échec du programme d’IA Watson Health, dont la société IBM annonçait lors de sa création en 2015 la promesse d’une aide au diagnostic inédite grâce à l’intelligenceartificielle, invite ainsi à « accueillir avec précaution les annonces agitant le spectre d’une substitution de l’homme, et en l’occurrence des professionnels médicaux, par la machine ».À l’inverse, certains succès, particulièrement en imagerie médicale montrent que ces techniques peuvent être utiles et expliquent l’engouement qu’elles peuvent inspirer.
Le CCNE et le CNPEN soulignent également que les SIADM produisent des résultats basés sur une approche probabiliste et qu’ils peuvent être entachés d’erreurs. A ce jour, l’IA se prive ainsi d’une approche globale du patient, qui est, pour l’heure, l’apanage du cerveau humain et des équipes de soins. La « pensée » IA passe ainsi sous silence les spécificités contextuelles du cas examiné, que seule la prudence, au sens aristotélicien du mot, permet d’identifier. L’intelligence artificielle aurait donc une vision très artificielle de l’intelligence…
Un des dangers éthiques de l’IA serait donc la prétention d’infaillibilité de ses concepteurs. Il est donc capital que l’équipe médicale qui l’utilise soit consciente de ces possibilités d’erreurs et exerce un contrôle sur les résultats proposés par le SIADM.
Certes, les humains aussi commettent des erreurs, « mais il existe chez l’humain des procéduresintellectuelles et mentales permettant de relativiser ses décisions » écrit le CCNE. Le problème posé par les dispositifs de décision utilisant les SIADM est qu’ils peuvent être binaires lorsqu’ils nesont pas utilisés avec un regard critique. « Cela soulève un problème éthique qui tient au fait qu’il n’existe pas à ce jour de manière éthiquement satisfaisante de faire en sorte que le diagnostic émis suite à l’utilisation de ces technologies puisse être apprécié de manièrejuste, en minimisant le risque, pour fournir une décision médicale dont l’impact sur le patient est souvent considérable » poursuivent les éthiciens.
Aussi, « pour éviter les risques d’incomplétude et d’incidentalome, il est capital que la signification d’une mesure qui évalue le compromis entre précision et sensibilité soitparfaitement clarifiée par les industriels (…) le transfert complet du diagnostic à l’algorithme en pratique clinique soulève demultiples questionnements éthiques et juridiques » insistent CCNE et CNPEN. Le maintien d’un contrôle humain lors de l’utilisation d’un SIADM apparaît donc indispensable.
Le médecin deviendra-t-il un informaticien comme les autres ?
Le CCNE estime donc qu’il « est essentiel que les méthodes diagnostiques déjà établies, ne faisant pas intervenir a priori de SIADM, continuent d’être enseignées et de faire l’objet de recherches visant à les faire progresser ». Dans l’avenir, les SIADM ne devraient donc être envisagés qu’en tant qu’outils complémentaires. Le CCNE et le CNPEN insistent également sur la notion d’explicabilité soit la capacité de donner un sens clinique aux résultats informatiques. Une intermédiation pourrait alors devenir nécessaire. Elle consisterait à créer sinon de nouveaux métiers, au moins de nouvelles compétences pour le médecin afin de couvrir la compréhension des dispositifs de SIADM.
Qui va payer pour tout ça ?
La question de la responsabilité est également au centre du jeu avec l’émergence de l’IA. La Commission européenne a publié, le 28 septembre 2022, une proposition de directiveportant sur l’établissement d’un régime harmonisé d’indemnisation au niveau communautaire des dommages susceptibles d’être causés par des systèmes d’IA. Cette directive renforcerait très sensiblement la portée de l’obligation de contrôle humain pour
les systèmes d’IA à haut risque, ce qui s’applique au champ particulier de la santé. L’absence de système établi de contrôle humain permettrait au patient de s’appuyer sur une présomption de lien de causalité entre la faute du fabricant et son dommage, lui facilitant ainsi l’obtention d’une réparation.
Dans ces conditions, les concepteurs et utilisateurs de solutions d’IA seraient fortement incités au déploiement de dispositifs de supervision comme les « collèges de garantie humaine » recommandés par l’OMS. La formation au débat collégialautour de l’IA constitue donc « un enjeu essentiel pour l’appropriation et le contrôle de ces outils » estime le CCNE.
Il deviendra également nécessaire d’adapter les cursus d’enseignement aux technologies d’IA. Vaste programme.
Frédéric Haroche (sans l’aide de l’IA)