Crédit photo : seandreilinger via Flickr
Préféreriez-vous prendre rendez-vous pour un diagnostic sur un cancer de la peau avec un algorithme d’apprentissage ou un dermatologue ?
La question peut sembler saugrenue, mais cela pourrait pourtant être un choix tout à fait légitime dans quelques années. Une équipe du Pigmented Lesion and Melanoma Program au Stanford Cancer Institute (Stanford University) vient de publier une étude dans la prestigieuse revue Nature qui montre toutes les capacités de l’apprentissage profond (Deep Learning) appliqué à la détection des cancers de la peau. Les résultats sont impressionnants puisque l’algorithme d’apprentissage a performé aussi bien que 21 dermatologues dans la détection de différents types de cancer.
Le tour de force a consisté à apprendre à un algorithme à reconnaître différents types de cancers de la peau et leur gravité, « d’un carcinome malin à une kératose séborrhéique bénigne ». Pour ce faire, les chercheurs ont utilisé un algorithme déjà existant créé par Google qui s’est déjà fait remarqué en apprenant à traiter 1,28 million d’images représentant 1000 catégories d’objets. Dans le cas des cancers de la peau, il n’existait pas de bases de données photographiques pouvant être utiles à l’apprentissage de l’algorithme. Il a donc fallu d’abord générer cette base de données à partir des informations disponibles sur internet et travailler avec l’école médicale de Stanford afin de créer une taxonomie pertinente. Le résultat final consiste en 129 450 photographies regroupant 2032 maladies de la peau.
En premier lieu, on a demandé aux 21 dermatologues d’analyser chaque photo en haute qualité et de déterminer si ils ou elles recommanderaient une biopsie ou un traitement ou s’il suffisait de rassurer le patient si le cas s’avérait être bénin. Les chercheurs ont ensuite évalué le succès de chaque dermatologue à effectuer le bon diagnostic sur plus de 370 images.
La performance de l’algorithme a quant à elle été mesurée à l’aide d’une courbe spécificité/sensibilité, c’est-à-dire sur sa capacité à présenter le moins de faux positifs, ici le moins de cancer graves qui en fait ne le sont pas (spécificité) et celle à présenter le moins de faux négatifs, c’est-à-dire des cas de cancers graves, mais non détectés (sensibilité). L’ordinateur devait passer au travers de 3 diagnostics : évaluer les carcinomes épidermoïde kératinisant, évaluer les mélanomes, évaluer les mélanomes pris en photo à l’aide d’une dermoscopie.
Dans les 3 cas de diagnostics, l’algorithme a performé aussi bien que les êtres humains dans la courbe de spécificité/sensibilité, ses résultats se situant dans une aire représentant 91 % de la courbe.
L’équipe de Stanford aimerait transférer cette technologie dans les téléphones intelligents, ceux-ci ayant désormais des capteurs photographiques et des lentilles assez performants pour permettre de prendre en photo des lésions cutanées en haute résolution.
Voici une bonne explication de ce qu’est l’apprentissage profond ou deep learning :
Jérémy Bouchez
Référence et lien vers l’article dans Nature :
Esteva, A., Kuprel, B., Novoa, R. A., Ko, J., Swetter, S. M., Blau, H. M., & Thrun, S. (2017). Dermatologist-level classification of skin cancer with deep neural networks. Nature. http://www.nature.com/nature/journal/vaop/ncurrent/full/nature21056.html
Comments