top of page

Intelligence artificielle et santé : entre promesses et prudence (2/2)



La question n’est désormais plus « Est-ce que ? », mais « quand ? »

« Ce n’est que le début », « ce n’est qu’une question de temps », voici ce qu’on peut souvent lire dans les médias ou entendre dans la bouche de certains spécialistes ou ingénieurs quand on leur demande si l’intelligence artificielle va révolutionner la santé. Une requête dans le moteur de recherche dominant le marché retourne près de 670 000 résultats avec les mots clés « intelligence artificielle » et « santé », comme un reflet de l’effervescence récente liée aux potentielles applications de l’IA.

En fait, la réponse au « quand ? » est déjà connue : maintenant. En effet, si le temps du futur devait être utilisé il y a quelques années concernant la plupart des applications en santé, ce n’est plus le cas en 2018 considérant la rapidité avec laquelle tant les entreprises que les universités ont su développer des programmes de recherche et développement axés sur les implications de l’IA dans le secteur de la santé. Cette accélération provient de plusieurs facteurs : progrès dans la capacité d’apprentissage des réseaux de neurones artificiels, amélioration substantielle de la capacité de calcul des ordinateurs, accès généralisé à de grandes quantités de données permettant « d’alimenter » les algorithmes, par exemple grâce au perfectionnement et à la miniaturisation des caméras ou à la puissance de calcul des cartes graphiques (dans les ordinateurs) quand les réseaux de neurones doivent analyser des images. Dans le domaine génétique, la diminution impressionnante du coût du séquençage de l’ADN (divisé par un facteur 1 million depuis le début du 21e siècle) rend possible l’analyse par des algorithmes de millions de patrimoines génétiques afin de prédire la réponse d’un être humain à un traitement en fonction de ses gènes, permettant, selon les spécialistes, l’avènement très prochain de la médecine personnalisée. On peut par exemple citer les travaux d’une équipe de l’Institut de recherche en immunologie et en cancérologie de l’UdeM visant à cerner le profil génétique des cellules cancéreuses en décryptant, grâce à l’IA, les énormes quantités de données issues du séquençage des 19 000 gènes (environ) que posséderait chaque être humain.

Des données, des données, toujours plus de données


une personne générera environ 1 million de gigabits (Gb) de données médicales durant sa vie, soit l’équivalent de 300 millions de livres » (Trad. libre). La firme a bien compris les énormes enjeux liés à l’avènement de l’IA en santé puisqu’elle utilise la puissance de calcul de son programme Watson (qui avait battu des humains au célèbre jeu télévisé Jeopardy aux États-Unis) pour justement développer un programme d’aide au diagnostic médical.

Les applications les plus prometteuses pour le moment concernent les algorithmes utilisant des caméras afin de détecter des pathologies ayant certaines caractéristiques visuelles comme des cancers de la peau. Dans ce cas, les programmes basés sur l’apprentissage profond performent aussi bien que des spécialistes quand il s’agit d’établir un diagnostic, comme nous l’avions rapporté dans cette capsule. Toujours concernant l’imagerie médicale, mais à l’intérieur du corps humain cette fois-ci, la technique de l’exploration de données, ou data mining, pourrait faciliter la détection précoce de la maladie d’Alzheimer avec une précision de diagnostic de près de 90 %.

La santé mentale n’est pas en reste non plus. Par exemple, une équipe de recherche en psychiatrie (Corcoran et al., 2018) a démontré l’efficacité d’un algorithme utilisant le traitement automatique du langage naturel (automated natural language processing) pour prédire le risque de psychose chez de jeunes patients. Le programme est arrivé à détecter la pensée tangentielle, les difficultés d’associations ou encore une réduction de la complexité du langage, des symptômes associés à la psychose. Comme le précisent les auteurs, le discours et le langage sont les premières sources de données pour poser un diagnostic dans de nombreuses maladies mentales, l’analyse du langage naturel par des algorithmes est donc également amenée à progresser rapidement.

On l’aura compris, l’intelligence artificielle joue déjà un rôle important dans plusieurs domaines du secteur de la santé et il semble que le mouvement consistant à appliquer l’IA dans ce secteur aille crescendo. Le site internet Techmergence a ainsi récemment dressé une liste (non exhaustive) des principales applications actuelles et à venir de l’apprentissage machine en santé. Aux États-Unis, un consortium composé du Bureau national de coordination des technologies de l’information en santé (ONC), de l’Agence pour la qualité et la recherche sur les soins de santé et de la Fondation Robert Wood Johnson a commandé un rapport au comité JASON, un groupe de scientifiques indépendant qui conseille le gouvernement fédéral sur les questions de sécurité nationale, mais aussi sur certains sujets scientifiques, comme les apports de l’IA dans le domaine de la santé. Le comité JASON a ainsi publié un rapport en décembre 2017 intitulé « Artificial Intelligence for Health and Health Care ». Le document est séparé en cinq grandes sections : 1/ l’intelligence artificielle et le diagnostic en santé, 2/ la prolifération des appareils et des applications de collecte et d’analyse de données, 3/ le développement des algorithmes avancés en IA, 4/ les données de santé à large échelle et 5/ les enjeux liés au succès de l’IA.

D’autres applications liant robotique et intelligence artificielle sont d’ores et déjà utilisées en médecine ou en soins de santé. On peut citer entre autres exemples les robots qui assistent les chirurgiens dans le cas de certaines opérations ou encore les robots d’assistance pour personnes âgées, le tout suscitant bien évidemment d’importantes questions d’éthique. Ce court reportage de la chaîne Aljazeera montre quelques situations dans lesquelles les robots dotés d’IA pourraient être amenés à jouer un rôle. Cependant, comme le pense l’éthicien Tom Sorell et de nombreux spécialistes, « il n’est éthiquement pas souhaitable de confier à des robots certains rôles comme le fait de rassurer une personne âgée ou de l’accompagner dans ses derniers moments ».


Une indispensable prudence et inévitable responsabilisation des acteurs

Alors que les médias se font le relais des hérauts de la révolution de l’intelligence artificielle en santé et du discours euphorique dont font preuve nombre de multinationales (les célèbres GAFA), d’entrepreneurs, de décideurs ou encore d’institutions universitaires, d’autres voix se font de plus en plus entendre pour non seulement réclamer un encadrement des projets impliquant l’utilisation de l’IA, mais aussi pour appeler à une sensibilisation du grand public vis-à-vis de l’utilisation des données personnelles à des fins commerciales. Le 26 avril dernier, lors d’une table ronde à Lyon sur l’avenir d’internet, Tim Berners-Lee, considéré comme l’inventeur du Web, a lancé un vibrant plaidoyer contre la vision des données personnelles en tant que « or noir » du XXIe siècle et les dérives que pourraient impliquer une IA « non tenue en laisse » :

« Les données personnelles ne sont pas le nouveau pétrole. Si je vous donne mes données, ce n’est pas comme du pétrole, ce n’est pas comme de l’eau, je les ai encore. Ce sont les miennes. »

Cette mise en garde fait écho à celle du célèbre physicien et cosmologiste Stephen Hawking qui déclara en 2016 à l’Université Cambridge que « le développement d’une intelligence artificielle complète pourrait être la meilleure ou la pire chose qui puisse arriver à l’humanité ». L’année précédente, des scientifiques de renom, dont plusieurs spécialisés en IA, avaient publié une lettre ouverte sur le site internet du Future of Life Institute appelant au développement d’une IA bénéfique pour l’humanité tout en évitant les pièges potentiels et les risques en cas de perte de contrôle.

Dans le domaine de la santé, la multiplication des algorithmes utilisant les données personnelles pourrait induire des dérives si les gouvernements laissent toute latitude aux multinationales ou entreprises naissantes spécialisées dans l’analyse des données des patients. À plus long terme, il convient de réfléchir sur les potentiels mésusages ou doubles usages d’applications utilisant l’IA au bénéfice du secteur de la santé. Par exemple, le grand public doit-il craindre qu’une entreprise comme Thales, qui fabrique des équipements militaires, investisse 25 millions de $ dans un centre de recherche à Montréal en coopération avec IVADO et le MILA ?

Face à la déferlante d’IA que promettent certains ingénieurs et scientifiques, ne convient-il pas déjà de dresser des « digues éthiques » et de faire confiance aux phares que représentent les éthiciens afin de se protéger des vagues les plus dangereuses tout en laissant un accès contrôlé au port ? Considérant les écueils éventuels en cas de perte de contrôle de l’intelligence artificielle, se priver de tels garde-fous pourrait s’avérer être… une folie.


Jérémy Bouchez


RÉFÉRENCES


  1. Corcoran, C. M., Carrillo, F., Fernández-Slezak, D., Bedi, G., Klim, C., Javitt, D. C., Bearden, C. E., Cecchi, G. A. (2018). Prediction of psychosis across protocols and risk cohorts using automated language analysis. World Psychiatry, 17(1), 67‑75. https://doi.org/10.1002/wps.20491

Comments


bottom of page