Vidéo Décryptage - Les concepts de base de l'Intelligence Artificielle par Amine, Consultant Data Intelligence Kwanzeo
Kézako.data - Episode 1. L'Histoire de l'Intelligence Artificielle
Transcription du Kézako.data
Episode 1. L'Histoire de l'IA
Bonjour à tous,
Bienvenue dans ce KEZAKO.IA série d'épisodes dédiés à la vulgarisation des Concepts d'Intelligence Artificielle.
Je suis Amine, Consultant Data Intelligence KWANZEO .
Ce Kézako.IA est composé de 6 épisodes dont :
le 1er sera consacré à l'histoire de l' Intelligence Artificielle ;
le 2e au concept de Machine Learning et Deep learning ;
le 3e au déroulement de projet d'intelligence artificielle ;
le 4e épisode, on abordera les outils de développement de ce type de projet ;
et enfin, on fera un focus sur le MLOps pour l'encadrement de ce type de projet avant de voir un
cas concret sur la plateforme de Microsoft Data Fabrics.
Episode 1. La chronologie de l´IA
C'est
entre les années 40 et les années 50 que les bases de l'Intelligence Artificielle prennent place et où les premiers concepts de
Machine Intelligence commencent à voir le jour.
Ces concepts se formalisent un peu plus tard, vers la fin des années 50, avec notamment
Frank Rosenblatt qui conçoit le Perceptron.
Qu´est-ce que le Perceptron ?
Le Perceptron, qui est un modèle mathématique inspiré par un type de neurones biologiques du cerveau humain et qui sera la base par
la suite des
réseaux de neurones .
Le Perceptron fonctionne de la même manière qu'un automate, avec des entrées et une sortie. Cependant, le modèle conçu par
Frank Rosenblatt produisant une sortie binaire, soit un 0 ou 1, et donc
ne pouvait résoudre que des problèmes pouvant être découpés de manière linéaire .
Ces mutations ont suscité de nombreuses critiques qui ont causé beaucoup de déception, ce qui a engendré une accalmie de l'engouement autour de l´IA.
C'est ce qu'on appelle
« L'hiver de l'IA ».
Ce n'est que
vers les années 80-90 avec
l'introduction d'algorithmes plus sophistiqués tels que le
Support vector machine (SVM) et
les Arbres à décision en parallèle de la découverte de
l'algorithme de Rétropropagation qui sera essentiel pour
l'évolution du
Deep Learning et de l'apprentissage supervisé que l'intérêt pour
l'apprentissage automatique connaîtra une renaissance.
Cette renaissance sera fortement corrélée à l'évolution exponentielle de la puissance du calcul du matériel informatique ce qui s´aligne avec les principes de
la
Loi de Moore.
Le
début des années 2000 a été une décennie phare pour le développement de l'ingénierie, des caractéristiques au
« Feature Engineering » en anglais, qui est jusqu'aujourd'hui un processus crucial dans le domaine du
Machine Learning.
Ce processus a pour objectif d'épurer et de travailler les données de sorte à rendre l'algorithme d'apprentissage le plus efficace possible.
Cette étape est désormais indispensable à tout projet d'Intelligence Artificielle et est-elle même constituée de plusieurs étapes.
Tout d'abord, la
sélection des caractéristiques où il s'agit de sélectionner les données les plus pertinentes pour la tâche d'apprentissage.
Cette sélection peut être basée sur la connaissance du domaine étudié, des critères statistiques ou encore des algorithmes d'apprentissage
qui vont sélectionner pour nous les données les plus importantes ou pertinentes pour l'étude du sujet.
Enfin, cette étape-là est également composée
de transformations de données avec la normalisation, la standardisation, la discrétisation
et la réduction de dimensions nécessaires avant d'injecter les données dans un modèle d'Intelligence Artificielle.
Il y a également
l'étape de la gestion des données manquantes ou encore la création de données qui pourrait être plus
pertinente une fois ingérée par ce modèle de
Machine Learning ou d'Intelligence Artificielle .
Enfin, la
validation croisée pour évaluer l'impact des performances, de la transformation de ces données.
Bien évidemment, cette étape sera constituée de plusieurs itérations avant d'atteindre le résultat désiré.
Enfin stimulé par les grandes avancées matérielles et les grands ensembles de données déroulantes en grande partie du Web 2. 0 qui vient
avec
les réseaux sociaux ou encore
l'Internet des objets.
Les réseaux de neurones avec des nombreuses couches, sont devenus
beaucoup plus accessibles et ont vu
de nouvelles Architectures de réseaux de neurones comme les
réseaux de neurones convolutifs ou les
réseaux de neurones
récurrents qui ont trouvé de multiples applications dans le monde moderne, notamment
la vision par ordinateur avec la reconnaissance des caractères,
la reconnaissance faciale ou encore des voitures autonomes d'un côté.
Et d´un autre côté, le
traitement du langage naturel ou encore la reconnaissance vocale, voire les modèles de
Transformers
avec les
Chatbots comme
ChatGPT.
Aujourd'hui, les recherches en Intelligence Artificielle sont toujours en constante évolution et les recherches s'accentuent dans des domaines
tels que
l'apprentissage auto supervisé, l'apprentissage par renforcement et l'intelligence explicative.
Après ce premier épisode ou nous avons parlé de l'évolution de la chronologie de l'Intelligence Artificielle. Nous allons aborder maintenant
dans le 2ème épisode,
les types d'algorithmes, de Machine Learning et de Deep Learning., ainsi que leur mode de fonctionnement sans trop rentrer dans les détails techniques.
Si ce Kézako.data vous a plu, vous pourrez retrouver sur le site et sur la chaîne YouTube de KWANZEO des vidéos explicatives sur les
référentiels de données
ou encore
Microsoft Power BI, Azure Data , …
Merci beaucoup !