Les robots programmés par l’homme ou par eux-mêmes, révolutionnent déjà la médecine,également la recherche et ce n’est qu’un début. Alexandre Lebrun cofondateur et PDG de Nabla Copilot, propose aux médecins une IA capable de produire automatiquement un compte rendu après une consultation. A terme, elle rédigera la lettre d’orientation du patient à un confrère et fera les déclarations à l’Assurance maladie. Mais c’est déjà du banal !
Au-delà de faire gagner du temps aux praticiens, de nombreuses starts up, Open AI ou Med-PaLM, bref, Microsoft et Google, planchent sur des IA capables d’interpréter les images et de proposer un diagnostic, bref de créer un médecin électronique. Idée évidemment américaine puisque l’objectif premier est de répondre à ceux qui n’ont pas les moyens de payer !
De là à y voir chez nous la solution aux déserts médicaux et à la régulation des services d’urgences il n’y a qu’un pas, mais l’Autorité médicale hésite encore à le franchir partagée entre l’indignation des médecins, la résignation des patients et la difficulté de l’argumentaire. (Tiens, d’ailleurs, pourquoi ne pas le confier à Chat GPT ?)
Des erreurs en moins
Imaginons un peu la médecine de l’avenir…
D’abord, un robot vous demandera si vous n’êtes pas un robot, avant de vous diriger vers une cabine de téléconsultation où un robot auscultateur vous examinera puis laissera le champ à un robot médical qui analysera les données posera le diagnostic et imprimera l’ordonnance avant de terminer chez un robot lecteur. (Oui, pour votre carte bancaire).
Impossible pour un cerveau humain d’en maîtriser autant.
( source : Densen P. Challenges and Opportunities Facing Medical Education. Trans Am lin Climatol Assoc. 2011;122:48–58.)
Le “deep learning”
Ensuite, la possibilité d’aboutir à des robots dotés d’autonomie, capables par eux-mêmes, d’apprendre, de raisonner, d’analyser leur action et de la modifier pour la réajuster . C’est ce que l’on appelle le “deep learning” (DL) qui permet à des programmes informatiques d’apprendre en autonomie, sans être codés par l’Homme.
Quelques exemples : en ophtalmologie, un logiciel analyse le fond ce l’œil puis pilote un laser pour traiter une rétinopathie diabétique. L’IA permet de dépister automatiquement les patients qui devraient pouvoir subir une telle intervention. (Source : National Eye Institute, NIH.)
Des applications de deep learning existent en traitement d’images, par exemple pour repérer de possibles mélanomes sur les photos de peau, Leur mise au point nécessite de grands échantillons d’apprentissage : 50 000 images dans le cas des mélanomes, et 128 000 dans celui des rétinopathies.
Pour chacune de ces images, on indique au robot si elle présente ou non des signes pathologiques. A la fin de l’apprentissage, l’algorithme arrive à reconnaître les images anormales.
Restons donc optimistes. Et puis une fois le patient dûment numérisé, pourquoi ne pas terminer la consultation avec un dernier robot un peu comme ceux qui renouvellent le papier hygiénique dans les toilettes automatiques pour lui faire surgir d’une trappe une papillote ou un chocolat afin de rétablir le rapport humain ? Ce serait bien, non ?
Article garanti humain 100%, je ne suis pas un robot.