Qu’est-ce que le machine learling ?
Le machine learning est un sous-domaine de l’intelligence artificielle. Il porte plus spécifiquement sur des algorithmes informatiques capables de s’améliorer d’eux-mêmes grâce à des données d’entraînement, sans programmation spécifique. Il est largement perçu comme le moyen le plus prometteur de parvenir à une intelligence artificielle qui se rapproche véritablement de l’intelligence humaine.
Les algorithmes du machine learning peuvent être globalement classés en trois catégories :
- Apprentissage supervisé : vous fournissez des libellés et présentez des exemples d’entrées avec les sorties correspondantes que vous cherchez à obtenir, en laissant l’algorithme apprendre les règles de mappage entre les entrées et les sorties.
- Apprentissage non supervisé : vous ne fournissez aucun libellé, ce qui permet à l’algorithme de rechercher lui-même sa propre structure pour le traitement des entrées (par exemple, pour découvrir des schémas cachés parmi les données).
- Apprentissage par renforcement : l’algorithme interagit de façon récurrente avec un environnement dynamique dans un but bien spécifique, par exemple gagner à un jeu ou conduire une voiture. L’algorithme exécute des séries répétitives de tests et d’erreurs pour obtenir approximativement la solution optimale au problème.
Cet article présente brièvement les concepts d’apprentissage machine (ou machine learning) et de deep learning, et en explique les différences.
Qu’est-ce que le deep learning ?
Le deep learning est une branche du machine learning qui utilise des réseaux neuronaux artificiels pour se rapprocher de l’intelligence humaine. Inspiré des neurones humains, le deep learning utilise la théorie des graphes pour organiser les algorithmes de pondération en couches de nœuds et d’arêtes. Les algorithmes de deep learning sont extrêmement performants pour traiter des données non structurées (par exemple, des images ou langages).
Techniquement, pour être considéré comme « profond » (« deep » en anglais), un réseau neuronal doit contenir des couches cachées entre les couches d’entrée et de sortie d’un perceptron, c’est-à-dire la structure de base d’un réseau neuronal. Ces couches sont considérées comme « cachées » car elles n’ont aucun lien avec le monde extérieur. Exemples d’architectures de deep learning :
- Feed-forward (FF) : les données sont transmises dans un sens, en partant de la couche d’entrée pour traverser les couches cachées avant de rejoindre la couche de sortie. Tous les nœuds sont connectées et les données ne rebouclent jamais par les couches cachées. Le mode FF est utilisé dans la compression de données et dans le traitement d’images de base.
- Réseau de neurones récurrents (RNN) : type de réseau FF qui ajoute un délai sur les couches cachées pour permettre d’accéder aux informations précédentes pendant une itération en cours. Cette boucle de rétroaction simule la mémoire et rend les RNN parfaitement adaptés au traitement linguistique. Les réseaux RNN sont utilisés, par exemple, pour le texte prédictif qui relie les termes que vous employez le plus souvent afin d’adapter ses suggestions.
- Réseaux neuronaux convolutifs (CNN) : une convolution est une opération mathématique sur deux fonctions qui produit une troisième fonction décrivant de quelle manière l’une est modifiée par l’autre. Essentiellement utilisés pour la reconnaissance et la classification d’images, ces réseaux sont les « yeux » de l’IA. Les couches cachées d’un réseau CNN agissent à la manière de filtres mathématiques, en utilisant des sommes pondérées pour identifier les bords, les couleurs, le contraste et d’autres éléments qui composent un pixel.