Apprentissage profond
L'apprentissage profond[1],[2] ou apprentissage en profondeur[1] (en anglais : deep learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux ayant de nombreuses couches pour résoudre des tâches complexes. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Durant les années 2000, ces progrès ont suscité des investissements privés, universitaires et publics importants, notamment de la part des GAFAM (Google, Apple, Facebook, Amazon, Microsoft)[3].
Définition
modifierL'apprentissage automatique classique est généralement effectué sur des représentations des données obtenues par extraction de caractéristiques, cette dernière étant effectuée au moyen d'un algorithme. En apprentissage profond, cette extraction de caractéristiques résulte elle-même d'un processus d'apprentissage: on parle donc d'apprentissage de représentations. En pratique, on apprend en fait une hiérarchie de représentations, souvent les couches cachées de réseaux de neurones artificiels, chacune étant définie à partir de représentations plus simples[DLB2016 1]. Ces représentations étant apprises directement à partir des données, cela évite que les humains aient à expliciter la manière de les construire au moyen d'un algorithme. Si l'on représente la manière dont ces représentations sont construites les unes à partir des autres au moyen d'un graphe, celui-ci sera profond, avec de multiples couches, justifiant ainsi la qualification de « profond ».
Description et contexte
modifierL’apprentissage profond fait partie d’une famille de méthodes d'apprentissage automatique fondées sur l’apprentissage de représentations de données. Une observation peut être représentée de différentes façons. Une image peut être représentée par exemple par un vecteur, une matrice ou un tenseur de données décrivant la scène observée, notamment en fonction :
- de l’intensité des pixels dont elle est constituée ;
- des contours de ce qu'elle représente ;
- des formes qu'elle comporte.
Une des finalités des techniques d'apprentissage profond consiste à remplacer certaines tâches simples telles que des calculs mathématiques,[Information douteuse] encore relativement laborieux, par des modèles algorithmiques d’apprentissage supervisé et non supervisé (c’est-à-dire prenant ou non en compte des connaissances spécifiques du domaine étudié) ou encore par des techniques d’extraction hiérarchique[Quoi ?] des caractéristiques.
Les recherches dans ce domaine s’efforcent de construire de meilleures représentations du réel et de créer des modèles capables d’apprendre ces représentations[pas clair] à partir de données brutes et non-travaillées en amont par l'homme, et ce à grande échelle. Certaines[Lesquelles ?] de ces représentations s’inspirent des dernières avancées en neuroscience. Il s'agit, donc pour résumer d'interprétations du traitement de l'information et des modèles de communication du système nerveux, à l'image de la façon dont le système nerveux établit des connexions en fonction des messages reçus[pas clair], de la réponse neuronale[Quoi ?] et du poids des connexions[Quoi ?] entre les neurones du cerveau.
Les architectures d’apprentissage profond telles que les réseaux de neurones profonds, les réseaux neuronaux convolutifs « convolutional deep neural networks », et les réseaux de croyance profonde (en) ont plusieurs champs d’application :
- la vision par ordinateur (reconnaissance de formes) ;
- la reconnaissance automatique de la parole ;
- le traitement automatique du langage naturel ;
- la reconnaissance audio ;
- la bio-informatique[4],[5],[6].
Dans ces deux derniers domaines, notamment, elles ont obtenu des résultats très prometteurs[réf. nécessaire].
Historique
modifierLe concept d'apprentissage profond prend forme dans les années 2010, avec la convergence de quatre facteurs :
- Des réseaux de neurones artificiels[7] multicouches (eux-mêmes issus entre autres du concept de perceptron, datant de la fin des années 1950) ;
- Des algorithmes d'analyse discriminante[8] et apprenants[9] (dont l'émergence remonte aux années 1980) ;
- Des machines dont la puissance de traitement permet de traiter des données massives ;
- Des bases de données suffisamment grandes, capables d'entraîner des systèmes de grandes tailles[10].
En , le programme AlphaGo, à qui l'on a « appris » à jouer au jeu de go grâce à la méthode de l'apprentissage profond, bat le champion européen Fan Hui[11] par cinq parties à zéro. En , le même programme bat le champion du monde Lee Sedol par 4 parties à 1[12].
En 2019, OpenAI a publié GPT-2, un modèle de fondation capable de générer du texte. Tout en exprimant leurs inquiétudes sur les détournements possibles de ce type de technologie, les chercheurs de l'association ont renoncé à partager la version complète[13].
Domaines d'application
modifierL'apprentissage profond s'applique à divers secteurs des NTIC, notamment :
- la reconnaissance visuelle, par exemple la reconnaissance d'un panneau de signalisation par un robot ou une voiture autonome[14], ou la reconnaissance d'emplacements dans une image en combinant ses caractéristiques, comme un lit, une fenêtre et des affiches peuvent indiquer une chambre[15]. Elle aide à prédire certaines propriétés (ex. : les propriétés d'un sol filmé par un robot[16]) ;
- la reconnaissance ou la comparaison de formes[17] ou d'objets hautement déformables[18] ;
- l'analyse de mouvements et positions des doigts d'une main, ce qui peut être utile pour traduire les langues signées[19] ;
- le positionnement automatique d'une caméra, etc.[20] ;
- la télédétection (notamment en imagerie satellitaire)[21].
- l'art numérique, l'histoire de l'art ; par exemple la création d'œuvres artistiques à partir d'une photo[22] ;
- la reconnaissance vocale de voix humaine ou de signaux sonores[23] ;
- la robotique ;
- la sécurité ;
- la pédagogie assistée par l'informatique[24] ;
- l'intelligence artificielle en général ;
- des jeux de société complexes (échecs, go, shogi) ;
- la traduction automatique (moteurs tels que Google traduction, DeepL, Pons)[source secondaire nécessaire] ;
- l'analyse d'émotions révélées par un visage photographié ou filmé[25].
Dans le système de santé, l'apprentissage profond peut aussi[3] :
- poser, dans certains cas (à partir de l'imagerie médicale notamment), un diagnostic médical (ex. : reconnaissance automatique d'un cancer en imagerie médicale[26], mélanome notamment[27] ; détection automatique de la maladie de Parkinson (par la voix)[28] ; diagnostic d'une rétinopathie[29], de métastases de cancer du sein[30] et d'autres problèmes biomédicaux[31], classer les arythmies cardiovasculaires[32], pronostics[33], et prédiction de mortalité hospitalière ainsi que de réadmissions aux urgences[34]. L'apprentissage profond peut aussi améliorer le soin médical[35],[36].
Une application du deep learning en santé publique est le projet Horus[37], un appareil portable utilisant la plate-forme NVidia Jetson, qui aide les mal-voyants ou les aveugles à s'orienter et à reconnaître des personnes ou des objets, en retranscrivant en audio une image captée par une caméra. Des liens entre l'apprentissage profond et la théorie de jeux ont été établis par Hamidou Tembine en utilisant notamment des jeux de type champ moyen[38] ; - pratiquer la bioinformatique[39], par exemple pour l'étude de l'ADN[5] et des segments non codants du génome[4], ou encore la cytométrie[40].
En physique, l'apprentissage profond est utilisé pour la recherche sur les particules exotiques[41].
Réactions
modifierSont pointés de possibles usages malveillants du deep learning. Il est devenu possible avec les deepfakes d'incruster le visage d'une personne sur une autre, à son insu, et de lui faire faire ou dire des choses qu'elle n'a pas faites (comme dans le film Running man de 1986), le deep learning recréant les mouvements du visage en rendant l'incrustation ressemblante. Ainsi, plusieurs actrices comme Gal Gadot, Emma Watson, Cara Delevingne, Emma Stone, Natalie Portman ou Scarlett Johansson se sont retrouvées avec leur visage incrusté sur celui d'une actrice pornographique, soulevant des craintes quant à la généralisation d'un tel usage, permettant à n'importe qui de nuire à la réputation d'une autre personne[42]. Face à ce danger, plusieurs plates-formes telles que PornHub, Twitter et Reddit ont réagi en interdisant la publication de telles vidéos, et l'utilisateur « deepfakes », créateur du logiciel éponyme permettant à tout usager de créer des fausses vidéos à caractère pornographique, a été banni de reddit et son fil dédié supprimé[43].
Notes et références
modifier- « apprentissage profond », Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le ).
- [PDF] Commission d'enrichissement de la langue française, « Vocabulaire de l’intelligence artificielle (liste de termes, expressions et définitions adoptés) », Journal officiel de la République française no 0285 du [lire en ligne].
- "Deep learning" : les dessous d'une technologie de rupture, analyse prospective, Futurible.
- (en) Jian Zhou et Olga G Troyanskaya, « Predicting effects of noncoding variants with deep learning–based sequence model », Nature Methods, vol. 12, no 10, , p. 931–934 (ISSN 1548-7091 et 1548-7105, PMID 26301843, PMCID PMC4768299, DOI 10.1038/nmeth.3547).
- B. Alipanahi, A. Delong, M. T. Weirauch et B. J. Frey (2015), « Predicting the sequence specificities of DNA-and RNA-binding proteins by deep learning », Nature Biotechnology (résumé).
- (en) John Jumper, Richard Evans, Alexander Pritzel et Tim Green, « Highly accurate protein structure prediction with AlphaFold », Nature, vol. 596, no 7873, , p. 583–589 (ISSN 0028-0836 et 1476-4687, PMID 34265844, PMCID PMC8371605, DOI 10.1038/s41586-021-03819-2).
- J. Schmidhuber (2015), « Deep learning in neural networks: An overview », Neural Networks, 61, 85-117.
- Collobert, R. (2011). Deep learning for efficient discriminative parsing. In AISTATS'2011 . 95.
- D. H. Ackley, G. E. Hinton et T. J. Sejnowski (1985), « A learning algorithm for Boltzmann machines », Cognitive Science, 9, 147{169. 590.
- USI Events, « Deep learning - Yann LeCun, à l'USI », sur YouTube.
- David Larousserie et Morgane Tual, « Première défaite d’un professionnel du go contre une intelligence artificielle », Le Monde, (lire en ligne).
- William Audureau, « Jeu de go : pour Lee Sedol, la victoire de la machine est moins tactique que psychologique », Le Monde, (ISSN 1950-6244, lire en ligne, consulté le ).
- « OpenAI lance une version allégée de son générateur automatisé de textes GPT-2 », sur Le Monde Informatique, (consulté le )
- (en) Dan Cireşan, Ueli Meier, Jonathan Masci et Jürgen Schmidhuber, « Multi-column deep neural network for traffic sign classification », Neural Networks, vol. 32 « Selected Papers from IJCNN 2011 », , p. 333-338 (ISSN 0893-6080, e-ISSN 1879-2782, PMID 22386783, DOI 10.1016/j.neunet.2012.02.023).
- (en-US) lmunoz, « Dissecting Artificial Intelligence to Better Understand the Human Brain », sur Cognitive Neuroscience Society, (consulté le ).
- (en) Matthew Veres, Griffin Lacey et Graham W. Taylor, « Deep Learning Architectures for Soil Property Prediction », dans 2015 12th Conference on Computer and Robot Vision (CRV), (ISBN 978-1-4799-1986-4, DOI 10.1109/CRV.2015.15 , lire en ligne [PDF]).
- (en) D. Held, S. Thrun et S. Savarese (2015), « Deep Learning for Single-View Instance Recognition », arXiv preprint arXiv:1507.08286.
- (en) I. Mariolis, G. Peleka, A. Kargakos et S. Malassiotis, « Pose and category recognition of highly deformable objects using deep learning », International Conference on Advanced Robotics (ICAR), juillet 2015, p. 655-662, IEEE (résumé).
- M. Oberweger, P. Wohlhart et V. Lepetit (2015), « Hands Deep in Deep Learning for Hand Pose Estimation », arXiv preprint arXiv:1502.06807.
- A. Kendall et R. Cipolla (2015), « Modelling Uncertainty in Deep Learning for Camera Relocalization », arXiv preprint arXiv:1509.05909 (résumé).
- (en) Rose Moskolai, Wahabou Abdou, Albert Dipanda et Kolyang, « Application of Deep Learning Architectures for Satellite Image Time Series Prediction: A Review », Remote Sensing, vol. 13, no 23, , p. 4822 (lire en ligne).
- « DeepArt, l'ordinateur qui peint votre portrait », sur actu.epfl.ch, (consulté le ).
- (en) M. Cai, Y. Shi et J. Liu (2013), « Deep maxout neural networks for speech recognition », Automatic Speech Recognition and Understanding (ASRU), 2013 IEEE Workshop, p. 291-296, IEEE, 198.
- (en) W. Y. Lim, A. Ong, L. L. Soh et A. Sufi (2016), « Teachers' Voices and Change: The Structure and Agency Dialectics that Shaped Teachers' Pedagogy Toward Deep Learning », Future Learning in Primary Schools, p. 147-158, Springer Singapore.
- (en) S. E. Kahou, X. Bouthillier, P. Lamblin, C. Gulcehre, V. Michalski, K. Konda, … et Y. Bengio (2015). EmoNets: Multimodal deep learning approaches for emotion recognition in video. arXiv preprint arXiv:1503.01800.
- A. Halpern et J. R. Smith (octobre 2015), « Deep Learning, Sparse Coding, and SVM for Melanoma Recognition in Dermoscopy Images », dans Machine Learning in Medical Imaging: 6th International Workshop, MLMI 2015, organisé en conjunction avec MICCAI 2015, Munich, Allemagne, , Proceedings (Vol. 9 352, p. 118), Springer (résumé).
- (en) Andre Esteva, Brett Kuprel, Roberto A. Novoa et Justin Ko, « Dermatologist-level classification of skin cancer with deep neural networks », Nature, vol. 542, no 7639, , p. 115–118 (ISSN 0028-0836 et 1476-4687, PMID 28117445, PMCID PMC8382232, DOI 10.1038/nature21056, lire en ligne, consulté le ).
- (en) Laetitia Jeancolas, Dijana Petrovska-Delacrétaz, Graziella Mangone, Badr-Eddine Benkelfat, Jean-Christophe Corvol, Marie Vidailhet, Stéphane Lehéricy et Habib Benali, « X-Vectors: New Quantitative Biomarkers for Early Parkinson's Disease Detection From Speech », Frontiers in Neuroinformatics, vol. 15, (ISSN 1662-5196, DOI 10.3389/fninf.2021.578369, lire en ligne).
- (en) Varun Gulshan, Lily Peng, Marc Coram et Martin C. Stumpe, « Development and Validation of a Deep Learning Algorithm for Detection of Diabetic Retinopathy in Retinal Fundus Photographs », JAMA, vol. 316, no 22, , p. 2402 (ISSN 0098-7484, DOI 10.1001/jama.2016.17216, lire en ligne, consulté le ).
- « NASA/ADS », sur ui.adsabs.harvard.edu (consulté le ).
- (en) Travers Ching, Daniel S. Himmelstein, Brett K. Beaulieu-Jones et Alexandr A. Kalinin, « Opportunities and obstacles for deep learning in biology and medicine », Journal of The Royal Society Interface, vol. 15, no 141, , p. 20170387 (ISSN 1742-5689 et 1742-5662, PMID 29618526, PMCID PMC5938574, DOI 10.1098/rsif.2017.0387, lire en ligne, consulté le ).
- (en) Patrick Schwab, Gaetano Scebba, Jia Zhang et Marco Delai, « Beat by Beat: Classifying Cardiac Arrhythmias with Recurrent Neural Networks », .
- (en) G. S. Collins, J. B. Reitsma, D. G. Altman et K. G. M. Moons, « Transparent reporting of a multivariable prediction model for individual prognosis or diagnosis (TRIPOD): the TRIPOD statement », BMJ, vol. 350, no jan07 4, , g7594–g7594 (ISSN 1756-1833, DOI 10.1136/bmj.g7594, lire en ligne, consulté le ).
- (en) Alvin Rajkomar, Eyal Oren, Kai Chen et Andrew M. Dai, « Scalable and accurate deep learning with electronic health records », npj Digital Medicine, vol. 1, no 1, (ISSN 2398-6352, PMID 31304302, PMCID PMC6550175, DOI 10.1038/s41746-018-0029-1, lire en ligne, consulté le ).
- (en) Riccardo Miotto, Fei Wang, Shuang Wang et Xiaoqian Jiang, « Deep learning for healthcare: review, opportunities and challenges », Briefings in Bioinformatics, vol. 19, no 6, , p. 1236–1246 (ISSN 1467-5463 et 1477-4054, PMID 28481991, PMCID PMC6455466, DOI 10.1093/bib/bbx044, lire en ligne, consulté le ).
- (en) Riccardo Miotto, Li Li, Brian A. Kidd et Joel T. Dudley, « Deep Patient: An Unsupervised Representation to Predict the Future of Patients from the Electronic Health Records », Scientific Reports, vol. 6, no 1, (ISSN 2045-2322, PMID 27185194, PMCID PMC4869115, DOI 10.1038/srep26094, lire en ligne, consulté le ).
- Olivier Lascar, « Le système de reconnaissance visuelle Horus destiné aux aveugles doit tout au "deep learning" », sur Sciences et Avenir.fr, (consulté le ).
- (en) H. Tembine, « Deep Learning Meets Game Theory: Bregman-Based Algorithms for Interactive Deep Generative Adversarial Networks », IEEE Transactions on Cybernetics, , p. 1–14 (DOI 10.1109/TCYB.2018.2886238, lire en ligne, consulté le ).
- P. Baldi et S. Brunak (1998), « Bioinformatics, the Machine Learning Approach », MIT Press, 579.
- (en) Anindya Gupta, Philip J. Harrison, Håkan Wieslander et Nicolas Pielawski, « Deep Learning in Image Cytometry: A Review », Cytometry Part A, vol. 95, no 4, , p. 366–380 (ISSN 1552-4930, DOI 10.1002/cyto.a.23701, lire en ligne, consulté le ).
- (en) P. Baldi, P. Sadowski et D. Whiteson (2014), « Searching for exotic particles in highenergy physics with deep learning », Nature Communications, 5. 23.
- (en-US) « Facial Recognition for Porn Stars Is a Privacy Nightmare Waiting to Happen », Motherboard, (lire en ligne, consulté le ).
- « Le porno avec des stars incrustées dedans n’est pas le bienvenu sur Internet », madmoiZelle.com, (lire en ligne, consulté le ).
- (en) Ian Goodfellow, Yoshua Bengio et Aaron Courville, Deep Learning, MIT Press, (ISBN 0262035618, lire en ligne) [détail des éditions]
- p. 1.
Voir aussi
modifierArticles connexes
modifierNotions
modifier- Algorithme émergent
- Apprentissage
- Apprentissage automatique (machine learning)
- Apprentissage par renforcement profond
- Apprentissage non supervisé
- Apprentissage supervisé
- Automation
- Connexionnisme
- Cybernétique
- Histoire de l'intelligence artificielle
- Informatique
- Intelligence artificielle
- Reconnaissance automatique de la parole
- Réseau de neurones artificiels
- Révolution numérique
- Robotique
- Traitement automatique du langage naturel
- Vision artificielle
- Extreme learning machine
Logiciels
modifierThéoriciens
modifierLiens externes
modifierBibliographie
modifier- (en) Ian Goodfellow, Yoshua Bengio et Aaron Courville, Deep Learning, MIT Press, (ISBN 0262035618, lire en ligne) [détail des éditions].
- (en) Y. Bengio, Learning Deep Architectures for AI, Now Publishers, 2009, p. 149, 195.