[Intelligence Artificielle] Interview l'Intelligence Artificielle décryptée par notre Expert IA

Echange entre Amine, Expert IA et Hubert, Président de Kwanzeo, sur l’Intelligence Artificielle et son cheminement vers l’IA générative

L’Intelligence Artificielle décryptée

Partie 1 – Histoire et évolution de l’IA : Machine Learning, Deep Learning et cas concrets 


Echange entre :
– Amine, Expert IA de Kwanzeo
– Hubert, Président de Kwanzeo

 

Lors de cette première partie, Amine expliquera le cheminement vers l’IA générative, ce qu’est le Perceptron, le Machine Learning, le Deep Learning, le NLP, les réseaux de neurones récurrents, les réseaux de neurones Transformers, les LSTM, …

 

Transcription de l’interview filmée :

Hubert :
Bonjour Amine, tu travailles chez Kwanzeo sur la partie IA (Intelligence Artificielle), est-ce que tu pourrais nous donner l’historique du début de de de cette invention qu’est l’IA ?

 

Amine :
L’IA trouve ses sources au début du 20e siècle plus précisément au début des années 1920
déjà sous forme algorithmique. Il faut savoir que tous les algorithmes qui sont actuellement codés avec un langage peuvent être reproduits par des calculs manuellement, ce qui nous prendrait énormément de temps c’est pour ça que l’IA s’est davantage développé à partir du moment où le hardware a suivi.

 

Hubert :
Ce que tu me disais c’est qu’il y a aussi des travaux dans les années 40/50 encore peut-être très théorique et effectivement ça s’est accéléré avec la création de du hardware des machines de l’informatique.

 

Amine :
Exactement vers les années 50, on commence à trouver le premier semblant de réseau de neurones. C’est ce qu’on appelle le Perceptron.
Qu’est-ce que c’est le Perceptron ? Cela représente un neurone dans un réseau de neurones. Mais le Perceptron tel qu’il a été inventé en 1950 avait beaucoup de limites et donc c’est ce qui a causé un peu l’accalmie qui avait eu par rapport à au Machine Learning, à l’Intelligence Artificielle à cette époque-là.
Cela s’est relancé un peu plus tard vers les années 1980 / 1990 avec de nouveaux algorithmes
comme le SPM ( Salford Predictive Modeler) et également l’amélioration du Hardware avec les microprocesseurs et la réduction de la taille des transistors.

 

Hubert :
D’accord donc c’est l’accélération de la puissance de calcul, des machines. Voilà les notions existaient déjà avant mais effectivement elles avaient besoin de puissance en fait, donc cela a démarré dans les années 80. Cela s’est accéléré dans les années 80.

 

Amine :
En effet, ça s’est accéléré. Comme on connait la loi de Moore, plus on aura un Hardware capable de faire tourner donc de grosses volumétries de données parce qu’au final le plus important dans le Machine Learning ce sont les données. Plus ce développement va connaître davantage de développement donc c’est la loi de Moore.

 

Hubert :
Tu parlais du Machine Learning. Est-ce que tu pourrais nous dire ce qu’est le Machine Learning ?

Amine :
Oui absolument, déjà le Machine Learning cela se traduit littéralement par apprentissage automatique tout simplement c’est la machine qui apprend, donc à partir de quoi la machine va apprendre ?
Tout simplement à partir de données qui vont représenter un phénomène, la machine aura pour objectif d’apprendre quels sont les patterns ou bien les modèles qui sont toujours présents donc dans un phénomène. Et grâce à ces données, la machine ou plutôt l’algorithme va pouvoir donc apprendre
comment ou quel est le processus ou le phénomène que reproduisent ces données là et va venir apprendre et pouvoir prédire donc l’avenir de ces données là.

 

Hubert :
D’accord, est ce que tu peux me donner un exemple concret classique ?

 

Amine :
L’exemple le plus concret qui me vient à l’esprit, supposons que l’on ait plusieurs magasins dispatchés un peu partout géographiquement. Chaque magasin a ses vendeurs et a ses propres articles voir des articles similaires entre certains magasins.
Je vais avoir des ventes quotidiennement et donc ces ventes vont constituer les données. Ces données qui vont être donc récupérées, nettoyées et prétraitées seront par la suite injectées dans un modèle de Machine Learning. Ce qui va me permettre de prédire mes ventes pour chacun des différents magasins.
Pourquoi est-ce que j’ai besoin de prédire mes ventes ? Tout simplement parce que dans la notion de magasin et d’article, je vais avoir une gestion des stocks à faire et donc ça me permettra plutôt d’approvisionner chacun des magasins en fonction de la prévision de la vente d’articles qui a été faite par mon algorithme développé en amont.

 

Hubert :
Pour résumé, en fait là pour que ça fonctionne on va aller prendre des données (il y a certainement un
travail sur la qualité de données), des puissances de calcul, des algorithmes et puis des connaissances
mathématiques parce que dans tout cela il y a de la statistique, il y a des modèles mathématique donc c’est un peu un assemblage entre mathématiques et informatique. Le tout pour que la machine puisse prédire le mieux possible un scénario.

 

Amine :
Exactement, le Machine Learning c’est la croisée de tous les domaines que tu viens de citer donc à savoir la programmation donc l’algorithmique, des mathématiques avec principalement de l’algèbre mais
également des statistiques et des probabilités et bien évidemment la partie développement avec toute
l’infrastructure qu’il y a derrière.

 

Hubert :
On le voit dans notre vie de tous les jours, ça a beaucoup progressé donc maintenant les
les grands les éditeurs, les fournisseurs de plateforme Cloud simplifie la vie des acteurs
donc des Data Scientist, des Data Engineer, .. de ceux qui sont sur ces plateformes là en proposant déjà des choses un peu prédéveloppées, des frameworks, ..

 

Amine :
Oui mais en fait il faut savoir qu’on a déjà pensé à beaucoup de choses. Il y a beaucoup de choses
que l’on peut déjà récupérer et travailler avec, en l’adaptant bien évidemment à chacun des sujets que l’on aura. Les cas d’usage cela va être l’élément de démarrage de tout projet de Machine Learning et comme tu l’as dit tout à l’heure bien évidemment avec le développement du Cloud aujourd’hui et des différents fournisseurs de Cloud, on peut assez facilement se créer un environnement ou créer un environnement.
Un Data Scientist pour qu’il puisse directement commencer à développer ses modèles de Machine Learning (à condition bien évidemment de lui fournir aussi les données bien nettoyées et bien
consolidées avec l’interprétation qu’il faut), il faut une collaboration que ce soit avec les
équipes Data donc le Data Engineer ou le Data Analyst pour pouvoir interpréter les données mais également avec les métiers pour comprendre les enjeux métiers de chaque domaine et donc
pour pouvoir mieux répondre au besoin de ce métier et avoir un bon ROI, ce qui est le plus important, pour être satisfait du résultat.

 

Hubert :
On vient de voir le Machine Learning mais il y a l’étape d’après dont le nom est le Deep Learning. Est-ce que tu pourrais me dire qu’elle est la différence entre du Machine Learning simple et du Deep Learning ?

 

Amine :
Et bien déjà on va commencer par la traduction tout simplement littéralement comme on l’a dit le Machine Learning veut dire « apprentissage automatique » donc l’apprentissage de la machine.
Deep Learning veut dire « apprentissage profond ».
Pourquoi parle-t-on d’apprentissage profond pour le Deep Learning ? Parce que les modèles de Deep Learning vont être plus complexes et plus poussés donc qui vont être basés sur des réseaux de neurones. Des réseaux de neurones, c’est comme on a parlé du Perceptron un peu plus tôt, c’est une multitude de Perceptrons sous forme de plusieurs couches avec plusieurs entrées et plusieurs sorties.
Le Deep Learning lui va prendre les données sous tout types de format, elles peuvent être traité ou sans les pré-traité donc sous format brut directement.
L’utilisation du Deep Learning va être bien plus large donc on va pouvoir l’utiliser pour de la vision
d’ordinateur donc l’OCR, on va pouvoir l’utiliser pour de la traduction et donc on a plusieurs architectures de Deep Learning, de la même manière qu’on peut trouver plusieurs algorithmes de Machine Learning.
En fonction de ces architectures là, on pourra plus ou moins traiter des problèmes assez complexes
comme la traduction sur tous les langages ou bien aller jusqu’aux IA génératives comme on le voit avec Chat GPT aujourd’hui.
Il faut savoir qu’un algorithme de Deep Learning est un algorithme de Machine Learning mais
l’inverse n’est pas forcément vrai, n’est pas vrai du tout d’ailleurs.


Hubert :
Effectivement, il faut de la puissance mais dans le même environnement de travail, comme cela fait partie du Machine Learning, est-ce plus compliqué ? Les bibliothèques sont-elles vraiment plus compliqués ?

 

Amine :
Les bibliothèques ne sont pas forcément plus compliquées. Ce qui va être différent, c’est que généralement vu qu’on a une volumétrie de données beaucoup plus large pour du Deep Learning, ce qui est d’ailleurs nécessaire pour avoir un entraînement correct du Deep Learning, il va falloir un autre type de capacité de calcul. On va principalement utiliser de la CPU pour du Machine Learning mais on va parfois être obligé d‘utiliser de la GPU pour le Deep Learning. Pour les sujets plus complexes, si on a plus de données, on aura à l’instar de la CPU que l’on utilise pour l’entraînement des modèles classiques on va utiliser des modèles de GPU. C’est d’ailleurs pour ça que Nvidia connaît un franc succès en bourse ces dernières années.

 

Hubert :
GPU c’est si tu utilises la carte graphique, c’est bien ça ?
Le « G » c’est pour graphique, cela m’a toujours assez étonné mais effectivement la carte graphique
retrouve un rôle dans les calculs et elle ne nous a pas aidé à passer un cap finalement.

 

Amine :
On peut tout simplement résumer par le fait qu’une image sur un écran que l’on affiche
grâce à une carte graphique, c’est l’équivalent d’une matrice et chaque pixel est un élément de la
matrice. La carte graphique va être utilisée pour traiter justement ces matrices de données qui sont très très grandes et très volumineuses.

 

Hubert :
Ça tombe bien, il y a une équivalence. C’est effectivement une étape et si on arrive un peu dans ce cheminement de l’IA, ce qui est intéressant de l’IA générative c’est qu’on on a tout naturellement la
capacité à discuter avec la machine en langage naturel donc un des usages du Deep Learning c’est ce qu’on appelle le NLP soit le « Natural Language Processing ».

 

Amine :
C’est ça exactement donc c’est le NLP. Cela a commencé avant donc l’IA générative forcément donc surtout pour des tâches de traduction. Par exemple ou autrefois les développeurs essayaient de coder les règles grammaticales d’une langue en particulier donc mot à mot en dur, ce qui causait forcément des incohérences lorsqu’on voulait traduire d’une langue qui n’a pas forcément la même sémantique qu’une autre langue. Avec les différents réseaux de neurones, on va avoir les réseaux de neurones récurrents, les LSTM et enfin on va arriver au Transformer.

 

Qu’est-ce que c’est les réseaux de neurones récurrents ? C’est ce qui va me permettre de garder la mise en contexte pour qu’un mot soit utilisé en fonction de son contexte. Ensuite, l’introduction des LSTM.

 

Qu’est-ce qu’un LSTM ? LSTM veut dire « Long Short Term Memory » c’est-à-dire une mémoire à court et à long terme, va me permettre de garder donc en mémoire les mots précédents parce qu’on a remarqué que pour l’IA générative comme pour l’être humain, lorsqu’on fait de très longues phrases, elle ne retenait que ce qu’il y avait au début et à la fin. Il fallait qu’on puisse aussi récupérer ce qu’il y avait au milieu et donc on a introduit ça avec les LSTM et enfin les réseaux de neurones Transformers.


Qu’est-ce que c’est les réseaux de neurones Transformers ? Pour les réseaux Transformers, on va avoir un encodeur et un décodeur qui sont un peu plus complexes, qui sont utilisés pour toutes les IA génératives aujourd’hui. C’est ce qui nous permet donc d’avoir le contexte et garder en mémoire tous les mots précédents qui ont été é dit lors d’une phrase et donc on peut même pousser une IA à ne pas à interpréter mais plutôt à prédire la fin d’une phrase en fonction d’un début de phrase car elle aura déjà le contexte en mémoire.

 

Hubert :
C’est un passage énorme le fait de pouvoir commencer à aborder le langage à savoir l’interpréter. Effectivement je l’ai vécu il y a environ dix ans lorsque l’on travaillait sur les BOT. Il y a eu tout un premier grand travail sur les BOT, la capacité à discuter, non pas avec une interface, mais avec simplement une zone de texte et un échange.
On avait effectivement cette complexité de comprendre ce que la personne disait, de comprendre son sentiment. Est-ce qu’elle était contente ou pas contente ?
J’ai un peu vécu cette partie là mais c’est effectivement extraordinaire tout le travail qui a été fait.

 

Merci Amine sur ce premier épisode, je te propose que l’on fasse une pause et on continuera un peu ce cheminement vers l’IA générative dans une deuxième partie.