Kézako.data Les concepts de base de l'Intelligence Artificielle



Les concepts de base de l'Intelligence Artificielle
Episode 1 : La chronologie de l'IA

Décryptage de l'IA - Episode 1 : La chronologie de l'Intelligence Artificielle présenté par Amine, Consultant Data Intelligence Kwanzeo

Vidéo Décryptage - Les concepts de base de l'Intelligence Artificielle par Amine, Consultant Data Intelligence Kwanzeo


Kézako.data - Episode 1. L'Histoire de l'Intelligence Artificielle


Transcription du Kézako.data
Episode 1. L'Histoire de l'IA



Bonjour à tous,

Bienvenue dans ce KEZAKO.IA série d'épisodes dédiés à la vulgarisation des Concepts d'Intelligence Artificielle. Je suis Amine, Consultant Data Intelligence KWANZEO .

Ce Kézako.IA est composé de 6 épisodes dont :

  • le 1er sera consacré à l'histoire de l' Intelligence Artificielle ;
  • le 2e au concept de Machine Learning et Deep learning ;
  • le 3e au déroulement de projet d'intelligence artificielle ;
  • le 4e épisode, on abordera les outils de développement de ce type de projet ;
  • et enfin, on fera un focus sur le MLOps pour l'encadrement de ce type de projet avant de voir un cas concret sur la plateforme de Microsoft Data Fabrics.


  • Episode 1. La chronologie de l´IA



    C'est entre les années 40 et les années 50 que les bases de l'Intelligence Artificielle prennent place et où les premiers concepts de Machine Intelligence commencent à voir le jour.

    Ces concepts se formalisent un peu plus tard, vers la fin des années 50, avec notamment Frank Rosenblatt qui conçoit le Perceptron.

    Qu´est-ce que le Perceptron ?

    Le Perceptron, qui est un modèle mathématique inspiré par un type de neurones biologiques du cerveau humain et qui sera la base par la suite des réseaux de neurones .
    Le Perceptron fonctionne de la même manière qu'un automate, avec des entrées et une sortie. Cependant, le modèle conçu par Frank Rosenblatt produisant une sortie binaire, soit un 0 ou 1, et donc ne pouvait résoudre que des problèmes pouvant être découpés de manière linéaire .

    Ces mutations ont suscité de nombreuses critiques qui ont causé beaucoup de déception, ce qui a engendré une accalmie de l'engouement autour de l´IA. C'est ce qu'on appelle « L'hiver de l'IA ».

    Ce n'est que vers les années 80-90 avec l'introduction d'algorithmes plus sophistiqués tels que le Support vector machine (SVM) et les Arbres à décision en parallèle de la découverte de l'algorithme de Rétropropagation qui sera essentiel pour l'évolution du Deep Learning et de l'apprentissage supervisé que l'intérêt pour l'apprentissage automatique connaîtra une renaissance.
    Cette renaissance sera fortement corrélée à l'évolution exponentielle de la puissance du calcul du matériel informatique ce qui s´aligne avec les principes de la Loi de Moore.

    Le début des années 2000 a été une décennie phare pour le développement de l'ingénierie, des caractéristiques au « Feature Engineering » en anglais, qui est jusqu'aujourd'hui un processus crucial dans le domaine du Machine Learning. Ce processus a pour objectif d'épurer et de travailler les données de sorte à rendre l'algorithme d'apprentissage le plus efficace possible. Cette étape est désormais indispensable à tout projet d'Intelligence Artificielle et est-elle même constituée de plusieurs étapes.

    Tout d'abord, la sélection des caractéristiques où il s'agit de sélectionner les données les plus pertinentes pour la tâche d'apprentissage. Cette sélection peut être basée sur la connaissance du domaine étudié, des critères statistiques ou encore des algorithmes d'apprentissage qui vont sélectionner pour nous les données les plus importantes ou pertinentes pour l'étude du sujet.
    Enfin, cette étape-là est également composée de transformations de données avec la normalisation, la standardisation, la discrétisation et la réduction de dimensions nécessaires avant d'injecter les données dans un modèle d'Intelligence Artificielle.

    Il y a également l'étape de la gestion des données manquantes ou encore la création de données qui pourrait être plus pertinente une fois ingérée par ce modèle de Machine Learning ou d'Intelligence Artificielle .

    Enfin, la validation croisée pour évaluer l'impact des performances, de la transformation de ces données. Bien évidemment, cette étape sera constituée de plusieurs itérations avant d'atteindre le résultat désiré.

    Enfin stimulé par les grandes avancées matérielles et les grands ensembles de données déroulantes en grande partie du Web 2. 0 qui vient avec les réseaux sociaux ou encore l'Internet des objets.
    Les réseaux de neurones
    avec des nombreuses couches, sont devenus beaucoup plus accessibles et ont vu de nouvelles Architectures de réseaux de neurones comme les réseaux de neurones convolutifs ou les réseaux de neurones récurrents qui ont trouvé de multiples applications dans le monde moderne, notamment la vision par ordinateur avec la reconnaissance des caractères, la reconnaissance faciale ou encore des voitures autonomes d'un côté.
    Et d´un autre côté, le traitement du langage naturel ou encore la reconnaissance vocale, voire les modèles de Transformers avec les Chatbots comme ChatGPT.

    Aujourd'hui, les recherches en Intelligence Artificielle sont toujours en constante évolution et les recherches s'accentuent dans des domaines tels que l'apprentissage auto supervisé, l'apprentissage par renforcement et l'intelligence explicative.

    Après ce premier épisode ou nous avons parlé de l'évolution de la chronologie de l'Intelligence Artificielle. Nous allons aborder maintenant dans le 2ème épisode, les types d'algorithmes, de Machine Learning et de Deep Learning., ainsi que leur mode de fonctionnement sans trop rentrer dans les détails techniques.

    Si ce Kézako.data vous a plu, vous pourrez retrouver sur le site et sur la chaîne YouTube de KWANZEO des vidéos explicatives sur les référentiels de données ou encore Microsoft Power BI, Azure Data , …
    Merci beaucoup !