L'IA va-t-elle dans le mur ?

Paris, le samedi 19 décembre 2020 - Certains veulent croire que les activités diagnostiques des médecins pourront dans un avenir proche être pleinement réalisées par des robots dont l’intelligence artificielle dépassera grandement les failles de l’intelligence humaine. Mais pour d’autres les promesses les plus fabuleuses de ces systèmes n’ont pas été tenues et il semble que le médecin de l’ancien monde ait encore de beaux jours devant lui. Comme souvent, il est probable qu’il faille éviter de tendre vers des positions extrêmes : si la surestimation des pouvoirs de l’intelligence artificielle est probable, prétendre qu’elle n’aura pas un rôle important à jouer (et qu’elle joue déjà) dans la médecine de demain est sans doute un déni de ses performances.

Concepteur d’un logiciel d’aide au diagnostic, Jean Thouluc, médecin généraliste à Montpellier rappelle ainsi que si la conceptualisation et autres subtilités de l’esprit manquent encore à l’Intelligence artificielle, le soutien apporté par certains systèmes fermés est  indéniable.

Par le Dr Jean Thouluc

Dans le domaine des images, l’exploration des Big Data par l’IA est époustouflante.

Chaque fois qu'il s'agit d'analyser une image, en radiologie, en dermatologie, dans l’étude des tracés électrocardiographiques ou électroencéphalographiques, dans la lecture histologique, dans l'analyse du génotype, dans l'examen du fond d'œil, les logiciels font des diagnostics aussi performants que les médecins (1), et ils sont parfois meilleurs. Le robot interprète des pixels qui échappent à l'examinateur.

Les radiologues ont leur logiciel de lecture des images www.statdx.com. Un programme informatique peut être très rapide et faire correctement des calculs complexes. Quand il analyse des images il ne fait que reconnaître des images par rapport à sa banque de données d'images, il fait des corrélations, quand le radiologue a mémorisé 1000 images de tumeurs du poumon, le logiciel en a mémorisé des milliers ou des millions. Devant une radio du thorax, tous les deux font un diagnostic de similitude et le radiologue y ajoute son intuition, ses réflexions, ses déductions.

Il n'est pas impossible que, dans un avenir plus ou moins lointain, le manipulateur en radiologie demande le diagnostic à l'intelligence artificielle et que le radiologue tende à s'effacer.

Des décisions ponctuelles peuvent aussi être faites par l'aide de l'intelligence artificielle comme le choix d'une chimiothérapie, mais ce ne sont là que des comparaisons faites par une machine qui ne réfléchit pas.

La question

Il est difficile de deviner quelles seront les futures découvertes, on peut imaginer que le génome couplé à d'autres données prédira notre santé. Mais pourquoi l'intelligence artificielle est loin d'être prête à remplacer le raisonnement médical ?

La réponse

Si l'ordinateur peut être performant dans une lecture numérisée d'images, il devient décevant dès qu'il s'agit de manipuler des idées. Il recherche des corrélations et fait des statistiques parmi des milliards de données mais il n'a pas la même logique que le cerveau. Pour ce qui est des textes, le logiciel sait bien les classer ou les comparer, mais il ne sait pas assimiler ces textes, il ne sait pas passer du mot au concept, il ne gère pas les abstractions, il ne pense pas. Au premier abord les démonstrations de diagnostic par des logiciels adaptés paraissent spectaculaires, comme les démonstrations de Watson, ''www.ibm.com/watson'', avec la possibilité de trier des milliards de données. Mais faut-il se laisse berner par ces démonstrations? Nous avons probablement fait fausse route avec les Big data pour l'élaboration d'une aide au diagnostic en médecine générale. Persister dans cette voie c'est investir beaucoup pour se heurter à des difficultés insolubles.

Les données médicales ne sont pas suffisamment structurées

La même donnée peut être réidentifiée plusieurs fois quand les identifiants direct (comme le nom du patient) ont été supprimés. Les données doivent être prélevées dans des sites de qualité, or la sélection automatique de ces sites n'est pas facile. Il n'y a pas une normalisation des données, elles n'ont pas toutes le même format, de plus le sens des mots traduits varie d'un pays à l'autre.

Le logiciel ne sait pas conceptualiser

Le logiciel butte sur les polysémies (mots qui ont plusieurs significations), en médecine, comme dans le reste de notre langage, nous avons des centaines de polysémies. Le mot sexuel n'a pas le même sens dans chromosome sexuel et désir sexuel, etc. Par exemple : auriculaire, affection, capillaire, caractère, charbon, conducteur, cortex, côte, sinus, cervical, chronique, décharge, fin, pas, importe, absence, incidence, joue, jumeau, expression, situation, susceptibilité, exclu, muqueuse, vestibulaire, plan, taille, bourse, selle, brûlure des mains, sympathique, tarse, menace, face, etc. Comment le logiciel comprend-il les différences sémantiques?

Par ailleurs, les mêmes mots peuvent être verbe, substantif ou adjectif avec des sens différents: aura, été, subit, grave, mouche, couvent... Les acronymes sont la pire source de confusion, AIT pourra être pris pour le subjonctif du verbe avoir, une IVG pourra être une insuffisance ventriculaire gauche ou une interruption volontaire de grossesse. Ces confusions se rencontrent dans toutes les langues.

Le lecteur, au cours de sa lecture corrige intuitivement le sens des mots, ''les jumelles de l'opticien grossissent'', ''les lentilles améliorent la vue'', ''les fils du patient ont été enlevés''. Comment le logiciel comprend-il que pendant une épidémie de Covid 19 il faut rester confiné dans sa maison mais qu'il faut éviter les lieux confinés ?

Il y a plus complexe dès que la logique intervient, dans une phrase comme ''La pince chirurgicale ne rentre pas dans la boite, elle est trop grande'', le logiciel ne sait pas si ''elle'' c'est la pince ou la boite? Le cerveau comprend de suite, le logiciel non, parce que pour le logiciel une boite c'est une suite alphanumérique b,o,i,t,e. Pour moi une boite est immédiatement conceptualisée, elle peut être rouge ou bleue, elle peut être grande ou petite, en carton ou en fer, c'est aussi une boite à bachot, une boite de nuit, ou la caisse dans laquelle je serai enterré. Le langage est rempli d'ambiguïtés que l'intelligence humaine corrige, ''plus de pain'' veut dire qu'il faut supprimer le pain ou qu'il faut en consommer plus.

Et je vous suis fidèle à jamais veut dire toujours c'est à dire le contraire de jamais. La dialectique d'une langue est faite pour le cerveau et non pour un ordinateur.

Le langage est fait de concepts et d'intuitions, ce qui n'évite pas toujours les ambiguïtés.

L'informatique manipule des chiffres et des mots mais il ne conceptualise pas, le médecin accède d'emblée à la sémantique des mots. Le médecin connait un contexte que l'ordinateur ignore, il connaît l'environnement du patient. Il perçoit les subtilités du langage de son patient et il peut interpréter les expressions de son visage, et même le non-dit du patient. L'ordinateur, même pourvu d'une soi-disant ''intelligence artificielle'', ne traite que des algorithmes en langage binaire. L'intelligence artificielle n'a rien à voir avec l'intelligence humaine, elle n'a pas la conscience du temps, ni de l'espace, elle n'a pas d'éthique, ni d'empathie, ni d'émotion, ni de jugement, elle n'a pas le sens du beau, elle n'a pas de sentiment, elle n'a pas d'humour, elle n'a pas de conscience du tout, elle est un calculateur prodigieux et rapide, mais ne la comparons pas à l'intelligence humaine. L'intelligence artificielle n'est pas une intelligence. Les résultats de l'informatique seront truffés de surprises, car tout le langage médical n'est pas algorithmisable. Dans le domaine du diagnostic clinique, l'ordinateur peut lire des millions de données, les classer en peu de temps et les comparer, mais la dialectique d'un enfant de 10 ans est meilleure que celle de l'ordinateur.

La traduction aggrave la confusion sémantique

Le contenus des Data centers est traduit dans toutes les langues, et un logiciel adapté sait reconnaître la langue dans laquelle un texte est écrit, le logiciel commence à chercher les articles ''le'', ''el'',''the'', suivant les articles trouvés il détermine la langue à traduire et il se branche automatiquement sur la traduction. Mais les traductions ne sont pas fiables, si vous n'en êtes pas convaincu traduisez avec Google translate ''La louve a mis ses petits bas'' en vietnamien, puis retraduisez du vietnamien au français, il vous répond ''Wolf a mis ses petites chaussettes''.

Le logiciel avale les vraies et les fausses informations dans les Data centers…

…Y compris celles de Medline et ceci va perturber les résultats. Dans les Big data le logiciel trouvera sur la maladie de Lyme, sur l'autisme, sur le dépistage du cancer de la prostate, un mélange de données vraies et fausses. Les corrélations sur un grand nombre viennent ici remplacer les liens de cause à effet. Mais toute la pathologie médicale n'est pas validée et les recommandations ne sont pas les mêmes sur les 2 rives de l'Atlantique. Par ailleurs combien d'articles poussent au sur-diagnostic et à la surmédicalisation ? Le logiciel digère tout, il assimile un mélange de données vérifiées et de données erronées. Si les données contiennent un abus d'indication de césariennes, le logiciel conseillera trop de césariennes. Des articles récents peuvent aussi mettre dans leur historique des données anciennes qui seront bêtement ratissées par le logiciel.

Bref les Big data ne donneront pas les données d'une pratique idéale avec les nouvelles recommandations et le traitement le plus pertinent.

Il y a pire, le logiciel peut créer tout seul des données fausses

L'autoapprentissage analyse des millions de données, et la machine crée de nouveaux algorithmes, comme un médecin avec un ensemble d'observations qui crée un nouveau raisonnement. Le logiciel apprend tout seul, mais s'il apprend à partir de données fausses, il ne peut apporter que des réponses fausses et il n'a pas de superviseur, il n'y a pas d'essai en double insu. Que sont ces nouveaux algorithmes? La machine après son apprentissage que va-t-elle donner comme information au médecin ?

Il y a pire que pire, le logiciel couplé aux Big data est une boite noire incontrôlable

Jusqu'à présent dans notre monde tangible, lorsqu'une erreur apparaissait il était possible d'en trouver l'origine en remontant la filière des causes et des effets. Désormais l'utilisateur ne pourra pas contrôler les millions de données triées par l'ordinateur pour connaître le déroulement de son ''raisonnement''. Avec l'intelligence artificielle des grosses machines, il n'y a plus de transparence, il y a un écran opaque entre le raisonnement humain et le raisonnement du robot. C'est grave. Où est la traçabilité ? Entre la question posée et la réponse, le logiciel mouline et la façon dont il triture des millions de données reste inconnue. L'IA fait sa cuisine mais personne ne connaît ses recettes. Même en présence du code-source, un informaticien ne pourrait pas lire des milliers de lignes d'algorithmes et retrouver le fil du ''raisonnement'' du logiciel. Avec l'utilisation du Cloud il faut nous attendre à des erreurs, mais surtout à des erreurs introuvables, cachées dans le ''nuage''.

L'emprise des firmes d'informatique

Les géants de l'informatique pourraient créer un robot de médecine générale faisant les diagnostics gratuitement, en étant soudoyés par la publicité des assureurs et des laboratoires pharmaceutiques, avec une éthique essentiellement commerciale, mais alors que deviendrait notre médecine ? Le programmateur pourrait influencer les résultats, en y plaçant volontairement des biais pour des raisons commerciales. Le médecin serait le vassal du robot, comme le livreur de pizza vassal de Uber. Il ne pourrait pas discuter avec son employeur, il serait lui-même programmé et saurait à la fin du mois quel est son classement pour son rendement financier. Ne riez pas, Orwell n'est peut-être pas loin.

Et les problèmes de confidentialité

Google a passé un contrat pour avoir accès aux observations de plusieurs millions d'américains hospitalisés, avec leur nom et leur adresse. Qui pourra garantir qu'il n'y aura pas de fuite et qu'un employé ne vendra pas ces données à des assureurs ou à des commerciaux ? Même quand les données sont fournies anonymement au départ, ce qui est le cas en France avec les données du SNIRAM de l'assurance maladie, la ré-identification de l'état civil est possible par recoupement des informations avec d'autres bases de données dans les ordinateurs géants du GAFA. Les données désanonymisées seraient du pain béni pour les assurances privées, pour les agences de renseignement, pour la police, pour les commerciaux ou pour l'Etat.

En cas d'erreur, comment les juges trancheront ?

Un seul algorithme inexact peut avoir des conséquences graves pour le patient. Envisageons un conflit de diagnostic entre le robot et le médecin devant une douleur abdominale. Le médecin pense que la patiente a une douleur abdominale parce qu'elle ne supporte pas sa belle-mère, mais le robot dit qu'il faut ouvrir le ventre. Que fera le médecin ? Eh bien, il hésitera, il sera tenté d'écouter la machine pour ne pas être condamné au cas où il aurait tort. S'il a tort et s'il n'a pas écouté la machine, les juges pourront le lui reprocher. Pour éviter un procès il va accepter le résultat d'une machine qui peut dire n'importe quoi et qui n'a ni empathie ni bon-sens. Il faudra beaucoup de courage au médecin pour défendre sa position. En dernier lieu ce sont les avocats qui auront le dernier mot.

Le Web est de plus en plus vérolé par les pirates

Ceux-ci ne sont plus sur la mer, ils naviguent sur le Net, malgré les moyens de protection qui sont parfois d'énormes forteresses, les délinquants du web ne sont pas tous dans le Dark net, ils fabriquent tous les jours des logiciels malveillants qui atteignent les hôpitaux, les banques, les entreprises, les organismes publics, les individus et même les gros serveurs du Cloud. Les dégâts provoqués par les pirates progressent tous les ans, ils agissent à travers les frontières, on ne sait pas où ils sont et les dégâts peuvent être irréparables.

La solution

Et si la recherche passant par les Big data était une impasse. Les investissements des géants américains sont colossaux de l'ordre de plusieurs milliards. Mais comment se fait-il que l'intelligence artificielle et les mégadonnées existent depuis plus de 50 ans et que nous n'ayons pas encore une aide au diagnostic en médecine générale ? (2) Et si la bonne stratégie était non pas ''l'intelligence artificielle'' mais un processus déductif transparent, plus simple à maîtriser, conçu par les médecins avec un cahier des charges fait par des médecins commandant le programme à des informaticiens. La pertinence pourrait être meilleure que celle d'un produit élaboré par les géants de la Silicon Vallée.

Nous ne rattraperons jamais les géants de la Silicon Vallée dans leur domaine, mais il y a d'autres passerelles à imaginer pour construire une aide au diagnostic en système fermé, qui ne va pas chercher l'information en labourant des milliards de données dans les Data centers, ce sont les systèmes experts ou systèmes apparentés, ce sont des experts médicaux qui les programment avec l'aide des informaticiens. Lorsqu'une erreur est découverte on peut vérifier la base de données, et la corriger immédiatement, la traçabilité est totale entre la question et la réponse, il n'y a pas de boite noire. Chaque mot peut être surveillé de l'entrée des symptômes jusqu'à la sortie des diagnostics, de la question à la réponse. Il ne s'agit plus d'un système opaque, mais d'un système dans lequel les mécanismes aboutissant au résultat sont vérifiables de A à Z. Dans un système fermé les erreurs du Cloud ne pénètrent pas, c'est le moyen d'éviter les erreurs incontrôlables apportées par les Big data. Pas de traduction, pas de ponction de données erronées sur les Data centers, les phrases ou les mots ambigus peuvent être évités, moins de risque de piratage, et en cas de piratage, la restauration avec une base saine peut se faire en quelques minutes, le système fermé peut même se passer d'Internet. Actuellement, les bases de données des systèmes fermés ne sont pas gigantesques comme les Big data, mais elles peuvent être développées et à terme le système expert peut devenir aussi pertinent que le système ouvert utilisant les Big data. La corrélation statistique y est remplacée par la logique. C'est en canalisant les diagnostics avec un système expert que l'on peut parvenir à faire une aide au diagnostic pour le généraliste, d'utilisation plus facile que la conduite des mastodontes qui ratissent bêtement les big data.

En attendant, les praticiens d'outre-atlantique ne s'y sont pas trompés, ils n'utilisent pas les Big data, mais des systèmes fermés comportant leur propre base de données comme UpToDate www.uptodate.com/ et Dynamed. https://dynamed.com/home/ (ces logiciels étant en anglais et payants). Le système fermé est plus simple, moins onéreux, plus facile à utiliser. Essayez un système fermé comme  www.assistantmedical.fr c'est une aide au diagnostic, gratuite et utilisée par de nombreux généralistes francophones. Les données ne sont pas puisées dans le Cloud, mais construites avec des milliers de textes et des milliers d'images par dix médecins ayant au total 250 ans de pratique médicale. Ce n'est pas un outil pensé par des informaticiens mais pensé par des médecins, Jusqu'à présent, après avoir essayé d'autres systèmes comme les procédés à bras décisionnels, il semble que c'est la meilleure solution et qu'elle évite tous les inconvénients du Big data.

Cette stratégie peut être progressivement améliorée en enrichissant les entrées du programme et en filtrant les sorties pour diminuer les faux positifs et les faux négatifs. Si les grosses machines spécialisées restent des logiciels fabuleux lorsqu'ils sont adaptés à des domaines spécifiques comme le traitement des images, ces systèmes ouverts gérés par intelligence artificielle n'ont pas montré leur pertinence en pathologie générale. Par contre, l'aide au diagnostic en système fermé avec un système expert est le produit de choix pour le médecin généraliste, il lui offre les prédiagnostics sur un plateau.

Le médecin de premier recours n'a pas besoin de trier des milliards de données pour faire un diagnostic, pourquoi sortir du garage une Ferrari de 47 chevaux pour aller acheter son journal, si un vélo peut rendre le même service.

(1) A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis Lancet digital health october 2019
(2) Caroline Talbot - Les premiers ratés de l'IA – Le Monde du 27 juin 2018

Copyright © http://www.jim.fr

Réagir

Vos réactions (9)

  • Donner du temps au temps

    Le 19 décembre 2020

    L'humain sait mettre sa réflexion sur l'oreiller, apprendre à ne rien faire et ne rien dire est une règle quand on est décideur. Apprendre à tourner sept fois sa langue dans sa bouche évite de dire trop de bêtises.

    La difficulté est probablement la, entre la demande d'une réponse pertinente et instantanée et les capacités à donner cette réponse il y a un monde. C'est en fait probablement l'aspect multi-dimensionnel et la mise en perspective qui posent problème.

    Quand les machines sauront dire stop ! peut être qu'elles seront alors capable de prendre le pas sur l'humain !

    Dr Didier Cugy

  • L'intelligence artificielle n'existe pas encore

    Le 19 décembre 2020

    Nous confondons toujours aide par un système d'information et remplacement du médecin par de l'intelligence artificielle. A mon sens l'intelligence artificielle n'existe pas encore. Mais par exemple l'identification des pathologies possibles ou des risques à partir d'un bilan ou simplement d'analyses pour les médecins de ville est réalisable par un logiciel et pour moi ce n'est pas de l'intelligence artificielle.

    Patrick Hirsch (pharmacien)

  • Les yeux et les mains restent indispensables

    Le 19 décembre 2020

    L'IA n'est qu'un outil, fabuleux certes, mais n'est performant que s'il est bien utilisé. La clinique prime toujours et l'examen physique ne peut, pour l'instant, être fait que par un médecin. Les yeux et les mains restent indispensables pour établir un diagnostic et sont irremplaçables. Le recours à l'IA permet de vérifier l'hypothèse et d'en inclure d'autres auxquelles le praticien n'aurait pas pensé que si le logiciel a été bien programmé.

    Dr Hervé Favoriti

Voir toutes les réactions (9)

Réagir à cet article