Le deep learning — Science étonnante #27


Bonjour à tous !
Aujourd’hui on va parler du deep learning. Le deep learning c’est un domaine
de l’intelligence artificielle qui a littéralement explosé ces dernières années. Vous en avez déjà peut être entendu parler
si vous avez vu ma vidéo sur le Go, ou bien si vous avez vu, il y a quelques mois, ces images
un peu psychédéliques qui ont été publiées par Google et qui représentaient soit-disant un algorithme
de deep learning en train de rêver. Alors aujourd’hui on va voir
ce que c’est que le deep learning et comment ça se positionne par rapport
aux autres champs de l’intelligence artificielle. L’intelligence artificielle on en parle
depuis plus de 50 ans maintenant et l’histoire du domaine est un peu tumultueuse. Ça a commencé par une période
de grand enthousiasme où on s’imaginait qu’on arriverait très vite
à faire des choses assez incroyables. Puis ça a été suivi par une période
un peu plus sombre de désillusion où on a finalement constaté qu’on avait
un peu sous-estimé les difficultés. Je ne vais pas vous refaire l’histoire du domaine mais ce qu’il faut savoir, c’est que dans les années 90,
après cette période de désillusion, Il y a eu une renaissance de l’intelligence artificielle, sous la forme de ce que l’on appelle
le machine learning, ou “l’apprentissage automatique” en bon français. Le machine learning c’est un domaine qui étudie comment des algorithmes peuvent
apprendre en étudiant des exemples et on va voir exactement ce que ça veut dire. Le deep learning dans tout ça,
ou “l’apprentissage profond” c’est juste une manière particulière
de faire du machine learning et je vais vous expliquer en quoi elle est originale et pourquoi elle a explosé ces derniers temps. Pour comprendre comment des ordinateurs et des
algorithmes peuvent apprendre à faire des choses on va partir d’un exemple très très simple. Imaginons que vous soyez un botaniste et que vous vous intéressiez à
une certaine espèce d’arbre. Vous vous promenez en forêt et
vous faites des observations et sur chaque arbre que vous croisez vous relevez sa auteur et le diamètre de son tronc. Puis vous consignez toutes vos observations
dans un tableau de données. Voilà le tableau, chaque ligne
représente un arbre différent dont vous avez mesuré le diamètre et la hauteur. Une chose simple que l’on peut faire
quand on a des données comme ça c’est de les représenter graphiquement. On met le diamètre en abscisse, la hauteur en ordonnée et chaque point va représenter un arbre
différent que vous avez mesuré. Voilà ce qu’on obtient. Vous avec vos yeux et votre cerveau d’être humain, vous voyez qu’il y a un truc notable dans ces données. Tous les points sont, en gros, à peu près alignés et on a très envie de faire passer une droite. Faire passer une droite comme ça c’est vraiment une
bonne idée parce que ça nous permet de généraliser, c’est-à-dire qu’on a un certain nombre d’observations
sur des cas particuliers, qui sont les arbres qu’on a mesurés, et on en tire une relation générale qui est cette droite. Et grâce à ce lien qu’on a découvert dans les données, on va pouvoir faire de la prédiction. La prédiction ça veut dire que
si je prends un nouvel arbre de la même espèce qu’on n’a pas encore mesuré et que je vous donne son diamètre, vous pouvez grâce à cette droite estimer sa hauteur. Le terme de “prédiction” est peut être un peu mal choisi parce qu’il ne s’agit pas de prédire l’avenir, il s’agit plutôt de deviner une valeur qu’on ne possède pas. Donc je résume la démarche : on prend des données
qui sont des observations particulières, on découvre un lien dans ces données et ce lien nous permet de généraliser,
de faire des prédictions. Ici, on a tous les ingrédients
de ce qu’est le machine learning. Le machine learning, c’est essayer de faire
la même chose avec des algorithmes. En supposant qu’on prenne ces mêmes données
et qu’on les donne à un ordinateur, on peut très bien imaginer un algorithme
qui va chercher comme nous à faire passer une droite parmi les points. Une droite est définie par deux choses : Une pente : a
et une ordonnée à l’origine : b Vous savez, c’est le classique : y=ax + b. On peut imaginer un algorithme qui fasse varier a et b jusqu’à trouver une droite qui
colle bien au nuage des points. Souvent l’image qu’on prend c’est d’imaginer
que a et b, les paramètres de la droite, c’est un peu comme deux boutons
que l’algorithme peut faire tourner jusqu’à trouver la meilleure droite possible. Et une fois qu’on a fait ça, on ne touche plus
à nos deux boutons et on a une droite qui permet à l’algorithme de généraliser,
d’extrapoler à des cas qu’il n’a jamais vu. Il suffit d’utiliser l’équation de la droite. Et voilà, le machine learning, en gros, c’est ça. On a des données, ici sous la forme
d’une entrée X et d’une sortie Y, on les présente à un algorithme
qui a des boutons et qui les tourne jusqu’à ce qu’il ait compris le lien entre X et Y. Ça, c’est tout ce qu’on appelle la phase d’apprentissage. Et puis, une fois que c’est fait,
on peut faire des prédictions et ça, c’est le but ultime d’un algorithme
de machine learning, être capable de faire des prédictions,
des extrapolations. Evidemment, ici, j’ai pris un exemple super basique. En entrée on n’a qu’un seul nombre X
qui est le diamètre de l’arbre, en sortie, un seul nombre Y qui est sa taille et en plus le lien entre les deux est très simple,
puisque c’est une simple droite. Mais dans les vrais problèmes de machine learning, on peut avoir des relations qui sont
beaucoup plus compliquées et surtout, on peut avoir beaucoup plus
qu’une seule donnée en entrée. Pour le voir, on va prendre quelques exemples
d’applications du machine learning. Vous avez certainement déjà remarqué que
votre fil Facebook ne vous montre pas toutes les nouvelles de vos amis ou
des pages auxquelles vous êtes abonnés. Il en choisit seulement certaines et il
vous les présente dans un certain ordre. Derrière, il y a un algorithme de machine
learning qui essaie de comprendre quelles sont les nouvelles qui ont
le plus de chance de vous intéresser. Cet algorithme prend en entrée tout
un tas de caractéristiques de la nouvelle, qui l’a postée ? quand ?
de quoi elle parle ? sa nature, etc… Et il essaie de prédire si ça va vous intéresser ou pas. Un autre exemple d’utilisation du machine learning,
c’est la détection de fraudes sur internet. Chaque fois que vous utilisez
votre carte de crédit sur internet, il y a un algorithme quelque part qui tourne pour essayer d’estimer si c’est
bien vous ou si c’est une fraude. Pour ça, il utilise des données d’entrée
qui sont la nature de la transaction, sa localisation, son montant et tout
un tas d’autres données du même genre. Encore un autre exemple d’utilisation
du machine learning dont on va particulièrement parler aujourd’hui,
c’est la reconnaissance d’images. La reconnaissance d’images, ça consiste
à essayer de faire un algorithme qui prend en donnée d’entrée une image, et dont le but est d’essayer de deviner,
en sortie, ce que représente l’image. Vous voyez peut être sur ces quelques exemples
que ma droite ax+b avec ses deux boutons va être largement insuffisante. Il nous faut quelque chose qui soit capable
de prendre plein de données d’entrée et surtout de capturer des relations bien plus
complexes que ça entre les entrées et la sortie. C’est là qu’interviennent les réseaux de neurones. Un neurone c’est quelque chose qui va jouer
le même rôle que ma droite tout à l’heure, c’est à dire que c’est une fonction mathématique qui va mettre en relation des entrées X avec une sortie Y. Alors évidemment, c’est important de préciser
que ce dont on parle là c’est un neurone artificiel, c’est à dire que c’est une construction mathématique qui imite grossièrement
le fonctionnement d’un vrai neurone. Les vrais neurones biologiques ce sont des cellules qu’on trouve dans notre système nerveux
et qui sont connectées les unes aux autres. Chaque neurone possède une terminaison
qu’on appelle un axone et par laquelle le neurone peut envoyer
un signal à d’autres neurones. La manière dont fonctionne un neurone, est la suivante : Le neurone reçoit, ou pas, un signal électrique
des autres neurones qui sont connectés à lui et en fonction de ces signaux,
il fait un truc assez binaire. Soit il n’envoie rien dans son axone, soit il envoie un signal électrique,
et là on dit qu’il “décharge”. L’idée du neurone artificiel qui date
déjà d’il y a plusieurs décennies, c’est de mimer ce comportement
par une fonction mathématique. Voilà le principe, imaginons qu’on ait
un neurone artificiel avec trois entrées, on va les appeler X1, X2 et X3. On fait la somme de ces trois entrées en affectant un coefficient à chacune,
on appelle ça un poids. Si la somme obtenue est supérieure à un certain seuil le neurone va envoyer 1 en sortie, sinon il va envoyer 0. Un neurone artificiel, vous voyez donc
que c’est une fonction mathématique qui prend des X en entrées et sort un Y en sortie et cette fonction elle a des boutons qu’on
peut tourner, qui sont les poids et le seuil. Un peu de la même manière qu’on pouvait
changer les coefficients a et b sur la droite. Le problème, c’est qu’un neurone tout seul ne
suffit pas pour faire des relations très compliquées. Ce qui est intéressant c’est que les neurones
on peut en associer plein ensemble et les empiler pour faire des fonctions
beaucoup plus compliquées et c’est ça qu’on appelle des réseaux de neurones. On devrait plutôt dire des réseaux
de neurones artificiels. En empilant des neurones comme ça on peut fabriquer
des fonctions aussi compliquées qu’on veut avec plein d’entrées et plein de sorties
et surtout plein de boutons à tourner, autant que de poids et de seuils dans le réseau. Ces réseaux de neurones, l’avantage
c’est qu’ils sont très polyvalents, on peut les adapter à plein de
types d’entrées ou de sorties Mais, dans le fond, on les utilise de la
même manière que ma droite, tout à l’heure. On prend un réseau de neurones, on lui présente une base de données
d’exemples d’entrées et sorties et on tourne tous ses boutons jusqu’à ce qu’il fasse
correctement le lien entre les entrées et les sorties. Je vous rappelle qu’on appelle ça
la phase d’apprentissage. Et, une fois qu’on a fait ça, notre réseau est entraîné et il est capable de prédire la sortie
si on lui présente une nouvelle entrée. Ça, c’est la phase de prédiction. Un des inconvénients des réseaux de neurones
par rapport à ma droite de tout à l’heure, c’est que c’est ce que l’on appelle
parfois un modèle “boîte noire”. C’est à dire qu’une fois qu’on a trouvé
toutes les bonnes positions des boutons, on se retrouve avec une fonction qui
mathématiquement est un peu compliquée et c’est un peu difficile de l’interpréter. Mais bon, en général tant que le réseau de neurones
donne la bonne réponse on est content. Et d’ailleurs il semblerait que l’apprentissage
dans le cadre des réseaux de neurones artificiels ressemble pas mal à ce qui se passe
en réalité dans le cerveau. Quand on apprend des choses, la force des connexions
entre nos neurones se modifie, c’est ce qu’on appelle l’efficacité synaptique et ça peut se comparer à la manière dont on joue sur
les poids dans notre réseau de neurones artificiels. Encore une fois, le but des réseaux de neurones
ce n’est pas de faire un modèle de notre cerveau, c’est juste une construction
mathématique qui s’en inspire. Tout ça c’était pour la théorie,
maintenant on va passer à la pratique. On l’a dit, quand on veut faire un réseau de neurones, on empile plein
de fois cette unité élémentaire qu’on appelle le neurone artificiel. Une question : combien faut-t-il en mettre dans notre réseau ? Si on s’inspire de notre cerveau, il y a
à peu près 100 milliards de neurones et comme il peut y avoir plusieurs milliers
de synapses pour chaque neurone ça ne nous met pas loin du million
de milliards de connexions. Très clairement, on ne va pas pouvoir faire ça
avec un réseau de neurones artificiels. Sans aller jusque là, dès qu’on met
trop de neurones dans notre réseau, ça fait beaucoup trop de boutons qu’on peut tourner, et ça devient très difficile de trouver
les bonnes positions des boutons. Ça veut dire que la phase d’apprentissage
devient quasiment impossible. C’est pour ça qu’en pratique on se limite à une structure
très simple avec seulement 3 couches de neurones. Les neurones d’entrée, qui sont les X, le ou les neurones de sorties, c’est le Y et puis une couche intermédiaire de neurones. Plus on met de neurones dans la couche intermédiaire,
plus le réseau est polyvalent et puissant mais plus il devient compliqué à entraîner,
à trouver les bonnes positions des boutons et si on essaie d’ajouter des couches de plus on se noie
assez vite dans la complexité de la phase d’apprentissage. Pour des problèmes avec un nombre
raisonnable de données d’entrée, comme par exemple de la détection
de fraudes sur internet, ce genre de méthode peut très bien marcher mais pour faire de la reconnaissance
d’images, c’est vite limité. Si on prend une photo de petite taille : 400×400,
ça fait tout de suite 160 000 pixels, c’est à dire 160 000 nombres à filer en entrée au réseau. et on se retrouve obligé d’utiliser
un réseau extrêmement compliqué qu’on n’arrivera pas à entraîner. Donc, en somme, balancer une image brute
dans un réseau de neurones ça ne marche pas. Heureusement il existe une méthode
pour s’en sortir, c’est celle de fabriquer des caractéristiques intermédiaires de l’image. Imaginons qu’on s’intéresse à un
problème qui consiste à reconnaître des véhicules. Vous voulez fabriquer un algorithme
à qui on donne une image et qui nous dit si cette image représente
une voiture, un bus, un train, une moto, etc… Nous en tant qu’être humain, il existe
un certain nombre de caractéristiques qui nous permettent de faire la différence. On peut par exemple compter
le nombre de roues apparentes, regarder le rapport largeur hauteur,
regarder quelle est la couleur dominante, la quantité de surfaces vitrées, le
nombre de vitres, leurs formes, etc… La solution pour faire de la reconnaissance
d’images dans ce genre de situation c’est de créer un algorithme intermédiaire
qui ne sera pas un réseau de neurones et dont le but va être d’analyser les images et
d’extraire toutes ces caractéristiques intéressantes. Ce sont ensuite ces caractéristiques qu’on va donner
à un réseau de neurones pour faire la reconnaissance. Cette approche peut fonctionner parce que la quantité
de données d’entrée qu’on va filer au réseau va être bien inférieure à ce qu’on aurait
si on avait filé l’image brute en entier. Les caractéristiques qui résument l’image, il va y en
avoir quelques dizaines, maximum quelques centaines et comme on a résumé image en la réduisant
à une liste de caractéristiques essentielles, on dit parfois qu’on a fait une abstraction de l’image. Tout ça c’est très bien, mais ça pose
quand même un petit problème, c’est que la qualité de la reconnaissance va
fortement dépendre de la manière dont on a fait ce travail intermédiaire de construction
des caractéristiques essentielles de l’image et pour faire correctement ce travail,
il faut savoir de quoi on parle. Dans mon exemple des véhicules, il faut
savoir que ce qui est important pour différencier un véhicule d’un autre,
c’est le nombre de roue, les vitres, etc… Donc il faut, entre guillemets, un
expert du domaine. C’est donc le concepteur de
l’algorithme intermédiaire qui fait, en quelque sorte, une bonne
partie du travail d’intelligence et c’est pour pallier à ça qu’intervient le deep learning. On a vu comment fonctionnait
le machine learning classique et on a vu comment on pouvait l’utiliser
pour faire de la reconnaissance d’images, pourvu qu’on ait une étape précédente
qui soit une étape de construction des caractéristiques essentielles de l’image qu’on
pourrait ensuite donner à un réseau de neurones. L’idée un peu folle du deep learning
c’est de sauter cette étape. En gros, on va faire un gros réseau
avec plein de couches de neurones à qui on file l’image brute. C’est ce qu’on appelle un réseau
profond, d’où l’appellation d’apprentissage profond,
ou deep learning en anglais. Je vous ai dit, a priori cette idée ne peut pas fonctionner, ça fait beaucoup trop de neurones,
ça fait beaucoup trop de boutons à tourner et la phase d’apprentissage ne marche pas. Et bien, il y a quand même
des gens qui ont voulu essayer. Un de ces pionniers, c’est un français
qui s’appelle Yann Le Cun et qui a commencé à utiliser ces
méthodes dans les années 90. A l’époque la communauté de l’intelligence
artificielle n’était pas du tout convaincue et préférait s’intéresser à d’autres trucs. Pendant à peu près deux décennies il n’y a eu
qu’une poignée de personnes dans le monde qui ont continuer à essayer de faire du deep learning. Sauf qu’en 2012 il y a eu une explosion. Il faut savoir que tous les ans, il y a une compétition
de reconnaissance d’images qui est organisée où tous les meilleurs algorithmes
du monde s’affrontent. vous pouvez voir ici les pourcentages d’erreurs obtenus
par les différents algorithmes de la compétition en 2010 et en 2011 et plus ce pourcentage est faible,
meilleur est l’algorithme. Et bien en 2012, à la surprise générale,
c’est un algorithme de deep learning qui a largement battu tout le monde et dès l’année suivante, tout le monde s’est mis
à faire du deep learning dans cette compétition. Evidemment, ce qui est intéressant
c’est d’essayer de comprendre pourquoi, soudainement, un algorithme de deep learning
marche mieux que les méthodes habituelles, alors que pendant 20 ans tout le monde
avait pensé que ça ne marcherait jamais. On l’a dit, dans les méthodes habituelles
on a un algorithme qui extrait de l’image les caractéristiques essentielles, qui résume l’image,
qui en donne une abstraction et ces caractéristiques, normalement,
on les file à un réseau qui est peu profond. Le petit miracle qui se produit avec le deep learning, c’est que si on a réussi à entraîner
le réseau correctement, on se rend compte que les couches supérieures
contiennent ces caractéristiques essentielles, tous les éléments importants de l’image
qui peuvent servir à la reconnaître. C’est à dire que l’algorithme les a
fabriqués lui même, il les a découverts sans qu’on ait eu besoin de faire le travail pour lui. Si on reprend l’exemple de la
reconnaissance de véhicules, ça veut dire qu’on n’aurait pas besoin de dire
à l’algorithme ce que c’est qu’une roue et le fait qu’une roue c’est important
pour reconnaître un véhicule. Non, l’algorithme en fait, découvrirait tout seul le concept de roue et l’importance de la roue pour classifier les véhicules. Je vous l’ai dit, suite au succès spectaculaire
d’un algorithme de deep learning dans la compétition de
reconnaissance d’images de 2012, tout le monde s’est mis à faire du deep learning et Yann Le Cun qui était resté
entre temps un petit peu dans l’ombre, est soudainement devenu une des
superstars de l’intelligence artificielle. Evidemment tout le monde s’est mis à
embaucher des spécialistes de deep learning, Google, Amazon, Baidu, etc… et bien sûr Facebook qui a embauché Le Cun comme directeur
de son laboratoire d’intelligence artificielle. Ce que je n’ai pas encore dit,
c’est pourquoi cette méthode à laquelle personne ne croyait
il y a encore quelques années s’est mise à marcher soudainement. Et bien, comme souvent, il y a plusieurs raisons. D’abord les algorithmes ont progressé, comme toujours, notamment, contrairement à ce que je peux laisser
penser, on n’utilise pas n’importe quel réseau profond, ce n’est pas juste un tas de neurones empilés et on a des architectures
particulières qui fonctionnent bien. Il y a aussi bien sûr une raison matérielle,
c’est la puissance de calcul et notamment les progrès des processeurs
de cartes graphiques, les GPU, qui sont plus puissants que les processeurs traditionnels
quand il s’agit de faire des choses liées à l’image. Mais la vraie raison du succès des algorithmes de
deep learning notamment en reconnaissance d’images, ça a été la disponibilité des données. Je vous ai dit, quand on fait un réseau profond
on peut se retrouver avec des milliers, voire des millions de neurones et donc ça peut faire des millions
de boutons qu’il faut tourner pendant la phase d’apprentissage
jusqu’à trouver la bonne relation. Pour faire ça, il faut des millions
d’exemples à montrer au réseau. En 2009 un laboratoire de Stanford a rendu public
une base de données qui s’appelle ImageNet et qui contient aujourd’hui plus de
15 millions d’images classifiées, c’est à dire qu’on a des images et en face de
chaque image, on a une description de ce que c’est, c’est à dire, une voiture, un chien, une vague, etc… Il y a plus de 10000 catégories différentes
alors vous pouvez faire le test et vous pouvez chercher dans ImageNet
par exemple, les images qui représentent un chat et je crois qu’il y en a plusieurs dizaines de milliers. Donc quand on balance toutes ces images
à un algorithme de deep learning on n’a pas besoin de lui dire quelles
sont les caractéristiques essentielles qui font qu’un chat est un chat. La forme de la tête, la couleur des yeux,
la taille des oreilles, etc… L’algorithme va les découvrir tout seul. A l’heure actuelle on peut faire des réseaux
profonds qui ont plus d’une centaine de couches et plusieurs millions de neurones. On est encore très très loin du cerveau mais les performances en reconnaissance
d’images sont quand même assez spectaculaires. Vous pouvez voir quelques exemples ici… Quand on sait que chaque jour sur Facebook c’est
près de 800 millions d’images qui sont uploadées, on comprend bien leur intérêt pour avoir un algorithme
qui soit capable de reconnaître rapidement ce qu’il y a dans une photo. Alors c’est vrai que des fois, ça rate… Heureusement, il y a d’autres applications
du deep learning que celle d’analyser les détails graphiques de notre vie privée
qu’on partage sur les réseaux sociaux. Par exemple, il existe des algorithmes qui sont
capables d’analyser des scènes sur une image et de les décrire automatiquement par une phrase. Ça peut être plutôt utile pour les malvoyants. Une autre application, c’est la conduite autonome, vous savez, la voiture qui se conduit toute seule
et dont on parle beaucoup en ce moment. Pour reprendre un exemple qui est donné par Fei Fei Li, qui est une des pionnières de ImageNet, c’est quand même vachement important
pour une voiture autonome d’être capable de reconnaître un sac en papier qui est
froissé sur la route et sur lequel elle pourrait rouler, d’un rocher qui est posé au milieu de la route
et qu’il vaudrait peut-être mieux éviter. Mais une des applications que je trouve
les plus intéressantes du deep learning, c’est la capacité à fabriquer des images. Je vous ai dit tout à l’heure, un algorithme
de deep learning, un réseau profond, si vous lui donnez une image brute en entrée, il va découvrir tout seul comment résumer cette image
brute par une série de caractéristiques essentielles. Là je simplifie beaucoup mais, en gros, on peut essayer
de prendre le réseau dans l’autre sens et de faire en sorte que, si on lui donne
en entrée une série de nombres, il produise une image en sortie et cette image sera nouvelle, elle sera unique et aura
les caractéristiques correspondantes à ce qu’on a entré, mais ce sera une image inventée de toutes pièces. Les algorithmes qui sont capables de faire ça,
c’est ce qu’on appelle des modèles génératifs. Par exemple ici, vous voyez un exemple
récent qui est assez spectaculaire, on a utilisé un modèle génératif
créé par un algorithme de deep learning pour créer des chambres à coucher. Vous avez toute une série de chambres à coucher
qui ont été inventées par un algorithme et ça marche aussi avec des chaises
ou avec des personnages de manga. Mon exemple préféré, c’est celui-ci: il s’agit de pochettes d’albums qui ont été complètement
inventées par un algorithme de deep learning qui auparavant avait étudié
des vraies pochettes d’albums. L’exemple le plus médiatique, même si
ce n’est pas forcément le plus utile, c’est celui dont j’ai parlé au début,
c’est Google DeepDream. Il s’agit d’un réseau qu’on a entrainé
sur tout un tas d’images et qu’ensuite on a utilisé pour produire
des images un peu psychédéliques. Le principe est un peu le même que quand on s’amuse
à essayer de trouver des formes dans les nuages, vous savez, quand on joue à regarder les nuages, en gros on peut essayer de se forcer
à y voir d’autres trucs que des nuages. Ici on a donné des images à un réseau profond
et on l’a forcé à essayer d’y voir autre chose et voilà le résultat. C’est sympa non? Encore une fois, il s’agit d’un exemple
un peu anecdotique mais j’espère quand même vous avoir convaincus qu’il y a plein d’applications
fantastiques pour le deep learning et je suis sûr que d’ici quelques années
on trouvera ce genre d’algorithme partout. Merci d’avoir suivi cette vidéo, si vous voulez
aller plus loin je vous en conseille deux autres. La première c’est celle de Fei Fei Li
qui est une des créatrices de ImageNet, qui à la conférence TED a présenté
le problème de la reconnaissance d’images et ce qu’on peut faire aujourd’hui, c’est assez rapide. Si vous voulez aller quand même beaucoup plus loin, vous pouvez aller voir la leçon inaugurale
de Yann Le Cun au Collège de France, ça dure plus longtemps et il va
beaucoup plus dans les détails. Comme d’habitude vous pouvez me retrouver
sur les réseaux sociaux, Facebook, Tweeter. Vous pouvez me soutenir sur Tipeee,
merci à tous les tipeurs qui me soutiennent. Vous pouvez aussi aller jeter un œil à mon bouquin
que j’ai sorti chez Flammarion et pour ceux qui sont intéressés à me rencontrer en vrai, je serai le 16 Avril à Vulgarizators à Lyon, donc n’hésitez pas à aller voir et n’hésitez pas
à venir assister à toutes les conférences. Merci et à bientôt!

65 Comments

  1. Laurent H

    March 28, 2019 at 11:34 am

    Ce n'est pas du tout comme cela qu'il faudrait apprendre, mais ainsi que l'ensemble des mots dans un dictionnaire qui se définissent eux-même par différence, similarité, valeur, comme dirait Saussure, dans la réalité apprendre ce qu'est un chat c'est aussi apprendre ce que n'est PAS un chat, donc apprendre l'ensemble du monde.

  2. KADJA ANGE B

    April 4, 2019 at 9:35 am

    Waouh merci pour cette video . Cetai tres interessant . Vraimen5

  3. Max Dj

    April 5, 2019 at 9:37 pm

    merci !! deep dreamer ou dream learning, j'hésite …

  4. Gaes

    April 7, 2019 at 2:25 pm

    Machine learning :
    – Histoire 0:32
    – principe du machine learning 1:22

    Réseaux de neurones artificiels :
    – Aspect théorique 5:56
    – En application 9:06
    – Deep learning 12:22

  5. Nahash Igi

    April 9, 2019 at 5:31 am

    Ça me rappel Project 2501 dans Ghost in the Shell, surtout le terme Deep Learning.
    "La mémoire ne peut être définie mais elle définie l'humanité."
    "Je ne suis pas une I.A. Je suis une entité vivante et pensante née de l'océan de l'information."

  6. Naaavy Fenty

    April 11, 2019 at 6:52 am

    Mais pourquoi la reconnaissance d'images c'est si important ? 😇

  7. Ortho Nice

    April 13, 2019 at 4:36 pm

    Merci pour cet exposé brillant. L'intelligence artificielle permettra surement un jour de gérer des ministères. La blockchain, l'intelligence artificielle, les processeurs quantiques avec la robotique nous laissent entrevoir ce que sera le monde de demain.

  8. Christian EPP

    April 20, 2019 at 4:23 pm

    Je souhaite à mon fils, d'avoir un prof comme vous !

  9. souhayl soulami

    April 22, 2019 at 10:39 am

    C'est excellent!!

  10. el gadiri jalil

    April 28, 2019 at 12:33 pm

    T un geni.
    Merci.

  11. el hadji malick diagne

    April 29, 2019 at 5:12 pm

    Mec t’es un génie. Tes explications ont décomplexé complètement le deep Learning chapeau

  12. COMENENT Prosper Eloi

    May 7, 2019 at 2:35 pm

    Comprendre des choses complexes quand elles sont si simplement et clairement exposées. Bravo!

  13. Tung Truong

    May 9, 2019 at 9:25 pm

    Super video!! Un gros like

  14. chamsedine Aidara

    May 12, 2019 at 1:38 pm

    Grace à vous j'ai enfin compris le machine learning et deep learning. bonne continuation

  15. Gilbert Keith Chesterton

    May 31, 2019 at 11:24 am

    On risque donc d'avoir une production de masse standardisé pour plaire au plus grand nombre. Quoique cela ne change pas grand chose finalement, sauf que cela deviendra encore plus cher d'être original ?

  16. Audrey Masson

    May 31, 2019 at 6:03 pm

    OMG j'ai tout compris ! Merci merci merci pour ta limpidité et tout le travail qu'il y a derrière ces vidéos

  17. SerieAllTracks

    June 1, 2019 at 10:12 am

    un jour je vous serrerais la pince. Merci

  18. chell mohamed

    June 2, 2019 at 2:30 am

    Très bonne vulgarisation dans une langue non jargonneuse. Excellent travail.

  19. Hypnose

    June 9, 2019 at 10:04 pm

    Belle vidéo, bien qu'une allusion au réseaux de neurones convolutifs n'aurait pas fait de mal, vu que se sont eux les stars dans la reconnaissance d'images(mais c'est vrai que ça aurait obligé de parler de filtre et de convolution et la vidéo serait plus longue).

    Sinon, pourquoi pas une autre vidéo sur les variantes de réseaux neuronaux.

  20. DA CUNHA Odie

    June 10, 2019 at 1:16 pm

    Bonjour, merci beaucoup ! Excellente présentation, bravo !!

  21. Nader Setayesh

    June 11, 2019 at 7:29 pm

    Grand Bravo !

  22. Nameless !

    June 15, 2019 at 4:46 am

    Récemment, des chercheurs qui travaillaient à la base dans la transparence complète et en rendant leurs codes publics ont développé un algorithme qui crée du texte/du contenu linguistique en fonction d'un paragraphe qu'on lui donne. En somme, l'algorithme comprend le paragraphe qu'on lui fournit, et il le continue à sa manière, en inventant une histoire/des informations etc… Un peu comme on demande dans la vidéo à un algorithme de Deep Learning de nous créer une image unique d'un chat. Là c'est un texte unique, dont les caractéristiques de style, et dont la cohérence tiennent la route. Cependant pour cette recherche en particulier, les créateurs ont décidé de ne pas rendre public leurs modèles d'algorithme. Pourquoi?
    Regardez déjà le nombre de fake news qui traînent sur le net… Là il suffit d'écrire quelques phrases sur X homme politique, Y projet de loi, Z réunion secrete etc. et l'algorithme finit le job à la place. Il pourrait aussi noyer des sites de fake reviews, faisant l'apologie de produits et de services à bas coût… (business qui existe évidemment déjà mais qui reste manuel, en général c'est des Indiens qui créent de faux profils pour liker/commenter lol).
    Nous en sommes seulement aux début de logique dominatrice du simulacre et de la simulation.

  23. Chawips

    June 17, 2019 at 6:41 pm

    666k abonnés ! Sciences sataniques 😀

  24. Catherine Aziz

    June 25, 2019 at 2:54 pm

    Lorsque mon fils m'en avait parlé et qui était le sujet de son "master's degree " (maitrise) , je n'avais pas compris grand chose… Merci pour cette vidéo qui a éclairci beaucoup de points dans ma vieille tête …

  25. Manu Reva

    July 7, 2019 at 3:17 pm

    On s'en fiche du Deep Learning ! Et il n'y a pas de vrai IA ! C'est que du vent

  26. Boooksy

    July 8, 2019 at 11:39 am

    Top. Bravo ! 😊 👍

  27. MiCHEL MALIK LAURENT

    July 11, 2019 at 11:50 am

    Génial.

  28. Derguene Mbaye

    July 13, 2019 at 9:52 pm

    Abonné après 3min de visionnage. Vous êtes super perspicace !

  29. Fabrice8282

    July 17, 2019 at 8:07 am

    Très intéressant. Mais également inquiétant, car cela signifie que l'intelligence des machines se rapproche de la nôtre. A quand la conscience artificielle ?

  30. évotempo

    July 18, 2019 at 5:31 am

    la création de la conscience?

  31. Raphael Amisi

    July 19, 2019 at 8:10 am

    C'est vraiment très bon les explications. Merci

  32. Sylvie VAUTHIER

    July 22, 2019 at 7:09 am

    Oh merci encore David ! On comprend mieux pourquoi la voiture sans chauffeur ou la domotique, c'est pour dans dix ans. Tu es décidément le roi des didacticiens.

  33. pierre henry Trouslard

    July 24, 2019 at 5:52 pm

    Excellent,merci

  34. PashLord

    July 28, 2019 at 1:04 pm

    Merci David @@[email protected] pour ces infos bravo pour la vulgarisation du sujet. C'est quoi ton domaine professionnel exactement ?

  35. PashLord

    July 28, 2019 at 1:04 pm

    Merci David @@[email protected] pour ces infos bravo pour la vulgarisation du sujet. C'est quoi ton domaine professionnel exactement ?

  36. Gérard Bée

    July 29, 2019 at 6:27 pm

    Yes !!! Le deep learning expliqué par un super mec !!

  37. Sy V

    July 30, 2019 at 2:24 am

    Le terme en français est « apprentissage profond ».

  38. BFVK 1551718

    August 4, 2019 at 9:14 pm

    Il y a une explication scientifique a mon aversion pour les anglicismes inutiles ?

    Ou alors, il y a une explication scientifique au fait que les français pondent des anglicismes a tout va ?

    Pourquoi "Le", autant écrire "the" deep learning, tant qu'a faire…

    A part ça, les vidéos de cette chaine sont vraiment, vraiment, intelligentes.

  39. Steven Degross

    August 5, 2019 at 6:28 pm

    quelles son les limites du deep learning ?

  40. Betul Çeliktaş

    August 8, 2019 at 3:10 pm

    I speak french but I ha dto watch this on 0.5 ahaha

  41. Itachi Uchiwa

    August 13, 2019 at 12:27 am

    Vous êtes tombés sur une pub du deep learning avant de voir la vidéo.

  42. Niko Ani

    August 24, 2019 at 11:27 am

    16:47 – Dromadaire lol :). J'aimerais bien en avoir un comme ça chez moi 😀

  43. Road2Acoustic

    August 25, 2019 at 11:44 am

    Vidéo d'une qualité EXTRÊME, merci 🙂

    A 18:45, quand on arrive à percevoir des formes dans un nuage ( comme l'ont fait tant d'enfants ) ou dans des plis de rideaux ou autre, on appelle ça de la paréidolie, c'est assez marrant comme phénomène, sur google images on a plein d'exemples !

  44. Mehdi Babin

    August 26, 2019 at 6:54 pm

    Mr Louapre (si je ne me trompe pas) – et je vais me permettre, assez impoliment, de te tutoyer -, je considère ta chaîne comme ma préférée de tout le "youtube game", et ce parmi des centaines de chaînes que je côtoie quotidiennement. Je te remercie infiniment, et je ne peux l'accentuer assez, de tout ce que tu as pu m'apprendre et me faire comprendre avec tant de clarté et de pédagogie. Je saute littéralement de joie à chaque notification de publication de vidéo de ta part que je vois apparaître. Mais, juste une chose, et j'ai conscience d'à combien elle est peu importante, insignifiante, presque, et, en soi, proportionnellement aussi infinitésimal qu'est infini l'amour que je voue à ton travail, il n'existe pas de "palier à" (qu'on retrouve dans cette vidéo, aux alentours des douze minutes), ni de "un espèce", qu'on retrouve dans la vidéo, de mémoire, sur la gravité quantique à boucles et bien d'autres. J'accepterais de me faire lapider pour cette stupide remarque, mais ton contenu, ton travail, tes vidéos, ton talent à la guitare, et ton exceptionnelle capacité de vulgarisation rendent tes vidéos parfaites, et voici la seule chose qui, à mes yeux, fait un peu tâche. En dehors, bien entendu, du fait, que parfois, j'ai du regarder des vidéos plusieurs fois à partir du moment où je me suis concentré sur tes musiques et tes merveilleux et très expressifs mouvements de sourcils (le passionné du para-verbal en moi fait son œuvre).

    Dans tous les cas, je t'embrasse, te serre la main, te salue bien bas, ou te donne une amicale tape dans le dos, selon tes souhaits.

    Ilias

  45. Babacar NDOYE

    September 5, 2019 at 12:09 pm

    Dans Matrix, les Hommes ont créé les premières IA, y ont intégré une composante qui évolue et qui, au fil de son évolution sera l’unique clé 🔑 de leur survie dans l’avenir: l’élu (NÉO).

    Une fois que les IA auront dépassé les Humains dans tous les domaines et dépassé le stade d’être utile pour les Hommes, vue qu’elles n’ont pas d’apprentissage spirituelle, morale et pas d’apprentissage sentimental. Les seules évolutions de l’apprentissage mental (la logique en l’occurrence ) et de l’apprentissage physique créent un déséquilibre et conduisent inéluctablement à une seule et même conclusion: L ‘EXTINCTION DE LA totalité de la RACE HUMAINE.

  46. AB DEL

    September 11, 2019 at 12:56 am

    As Professor Peter Corke explains, since artificial neural networks mimic the functioning of the human brain, the possibilities offered by this technology will increase as we discover the secrets of our own organ. By understanding the algorithm on which the human brain rests, and the means that evolution has brought us over time to understand images, reverse engineering will enable us to bring the potential of the human brain to artificial networks.

  47. arnaud robens

    September 17, 2019 at 7:46 pm

    salut quelqu'un peut-il me dire pourquoi ya plus annè ni le jour ni annè de publication des vidèo sur Youtube?? merci

  48. Stéphane BARJOLLE

    September 18, 2019 at 12:06 pm

    ta technologie te rends la vie facile.Il y a 20 ans quand j'ai créé mon imprimerie, j'avais 1 ordi, une imprimante, une presse d'impression et de l'outillage. Les clients sont venus, j'ai fait vivre ma famille dans la joie et la bonne humeur. 20 ans plus tard, le progrès aidant, je fais toujours le même chiffre d'affaires, j'ai triplé le nombre de mes machines, je travaille 2 fois plus. Pour continuer mon activité je dois maitriser 7 logiciels qui se mettent à jour tous les ans, avoir un site e-commerce, un web master, maitriser la vente en ligne qui passe par google adwords et Facebook ads, 2 interfaces qui changent intégralement tous les 2 ans sans avertissement, et que je dois payer très cher pour faire de la pub de merde. Je dois payer un avocat d'affaires constamment, faire mes démarches administratives sur le web. Je maitrise donc une bonne vingtaine de logiciels et d'interfaces. J'ai dans mon atelier 9 ordinateurs, 2 smartphones, une voiture de livraison. La quasi-totalité de mon activité se passe sur le web, je n'ai plus de contact avec mes clients. Je passe du temps sur le web parce que je n'ai pas le choix. Par-dessus le marché, ce web inonde mon esprit d'alertes, de catastrophes, de crises, de guerres imminentes… J'ai le choix pour sortir de ce que j'appelle désormais un enfer technologique : me suicider ou tout arrêter et devenir un paria.

  49. Alexandre TRITZ

    September 19, 2019 at 7:12 am

    Très bonne vidéo et vulgarisation du sujet ! Pour approfondir je ne saurais que recommander la récente chaîne Machinelearnia qui explique de A à Z les différents principes et algorithmes de manière très pédagogique, donc accessible même en étant novice partant de zéro ! Un super ebook gratuit est également téléchargeable sur le site web associé a la chaîne machinelearnia.com 😉

  50. Factory Fumes

    September 19, 2019 at 9:33 pm

    Excellent !

  51. Mamadou GANDEGA

    September 28, 2019 at 10:39 am

    Merci

  52. MONSIEUR METHA

    October 1, 2019 at 12:51 pm

    espece de bg

  53. Regis Gonthier

    October 1, 2019 at 3:04 pm

    Vu que celui qui l'a programme ne sait pas faire grand chose un fainéant qui a besoin de machines pour exécuter les sales besognes je peux imaginer chose seulement humaine les pauvreté de tell programme…dsl mais j'ai raison l'ordinateur ou les programmes ne font face qu'à quelques choses de connus et la vie chaque jour est une inconnue de plus…

  54. Mauricius

    October 2, 2019 at 2:29 am

    Excellent

  55. Fabrice JUMARIE

    October 2, 2019 at 11:22 am

    Excellente vidéo très pédagogue. Parfait pour une première immersion dans les concepts du machine learning

  56. Yassine Elbaza

    October 3, 2019 at 8:56 am

    Mec tu assure ! Super instructif, courage et bonne continuation

  57. HakWilliams

    October 6, 2019 at 12:58 am

    I thought it was called learning royale

  58. Al Bert

    October 10, 2019 at 8:09 pm

    Beaucoup de bullshit autour de ces choses….

  59. Marwan ElWatani

    October 20, 2019 at 8:02 pm

    C cool

  60. Patrick Boisson

    October 23, 2019 at 8:25 am

    Bien expliqué ..!

  61. Romain Puech

    October 24, 2019 at 9:29 am

    Zut on peut pas liker 2 fois

  62. Nicolas Touanen

    October 30, 2019 at 2:31 am

    Regardez le film Enigma vous comprendrez le commencement de tout cela.. avant c'était pour nous aider maintenant ça sert a contrôler le monde, c'est simple on entre des données qui calcule a notre place et on regarde le résultat c'est tellement simplistes en réalité mais c'est une arme redoutable et celà fait peur pour notre futur..

  63. Nicolas Touanen

    October 30, 2019 at 2:43 am

    Vous vous rappelez le jeu "Akinator", le but était de penser à une chose et il devait le deviner en nous posant des questions, grâce aux questions, ils élimines les informations inutile, ensuite il isoles des réponse possible, puis on recommence le processus pour éliminer les autres mauvaises réponses jusqu'à avoir la bonne, je suis nul en math avec tout les calculs bizarres mais Ceci est tellement logique car l'humain programme l'IA sur la pensé humaines au final c'est comme si ils ont des millions de personnes qui pensent pour eux, car tout cette intelligence va au gouvernement aux multinationales qui contrôle le monde, ce n'est plus un jeu mais la vrai vie.
    Avec les multitudes informations qu'ils récoltent sur nous, les gouvernements pourrons faire ce qu'ils veulent de nous et surtout des générations à venir.. RIP l'humanité..❤️

  64. Nicolas Touanen

    October 30, 2019 at 3:00 am

    Mdrrr désolé pour mes référence mais pour un exemple simpliste c'est comme le tatouage du héro dans "Prison break" pour ce que tu expliques dans l'image de la fin.
    Je ne m'y connais pas du tout mais ce raisonnement je l'avais déjà, tout comme l'ordinateur mon cerveaux a enregistré ces informations tiré de scène de film et à assimiler un apprentissage sur un sujet a par c'est peut être celà qui fait que tout ça me paraît simpliste, personnellement je trouve que les mots sont compliqués pour expliquer des choses simple c'est la base de la manipulations comme font si bien les politicien..
    C'est frustrant car je me dit que j'ai peut être raté ma vocations dommage que je déteste les maths où heureusement peut-être pour l'humanité que j'aime tant.

  65. Armand-Guive Moreau Iranpour

    October 30, 2019 at 10:25 pm

    Merci pour votre production de vidéos de qualité.

  66. Djrome1

    November 1, 2019 at 11:50 am

    Et oui des fois ça rate, on a tous vu que ce n'était pas un dromadaire, il y avait deux bosses = chameau va!

Leave a Reply