[Intelligence Artificielle]
Interview l'Intelligence Artificielle générative
décryptée par notre Expert IA

Echange sur l’IA Générative entre Amine, Expert IA et Hubert, Président de Kwanzeo

Partie 2 – L’IA Générative en entreprise

Echange entre :
– Amine, Expert IA de Kwanzeo
– Hubert, Président de Kwanzeo

 

Lors de cette deuxième partie, Amine expliquera ce qu’est l’IA générative et détaillera les principes d’implémentation et les applications dans l’entreprise

 

Transcription de l’interview filmé :

Amine: Bonjour. Donc on on est là pour notre 2e partie et l’on va parler de la partie IA Générative.

 

Hubert: Est-ce que tu pourrais nous nous définir ce que c’est que l’IA générative ?

 

Amine: L’IA générative, contrairement aux IA que l’on a pu aborder la dernière fois est un type d’intelligence artificielle qui va être principalement axé sur la génération de contenu. Le contenu peut être de tout type, c’est à dire qu’on peut avoir de la génération de contenu sous format de texte, sous format audio, sous format de PowerPoint (si on a besoin de faire des slides) et également sous forme d’images. A quoi ça va nous servir ? Ça va nous servir à gagner du temps sur toutes les tâches où la génération de documents est nécessaire. Cela peut également nous aider pour de l’automatisation ou également pour l’aide à la prise de décision.

 

Hubert: Est-ce que Tu pourrais nous donner des exemples ?

 

Amine: Oui, on va prendre un premier exemple. Donc toute entreprise a un service commercial. Prenons l’exemple d’un cabinet de Conseil. Si ce cabinet de Conseil avait un besoin d’intégrer de nouveaux éléments, de nouveaux collaborateurs donc à ce service, ces collaborateurs pour proposer de nouvelles offres, auront besoin de la connaissance de l’historique de l’entreprise avec bien évidemment la politique et la stratégie d’entreprise sur la gestion des nouvelles offres. Une IA Générative, avec la connaissance de cet historique, pourra lui (ie : le nouveau collaborateur) conseiller, lui synthétiser la façon dont ont été proposées les offres jusqu’à présent. Grâce à la grande évolution de la technologie (supposons toujours que nous sommes dans un cabinet de Conseil spécialisé dans la technologie) Il pourra avoir une synthèse sur ce que propose le cabinet de Conseil, sans pour autant rentrer dans la technique, en ayant une idée globale sur la façon de construire son offre en faisant la jointure entre l’aspect commercial, l’aspect technologie à intégrer sur les nouvelles offres.

L’IA générative donc pourra parcourir des centaines et des centaines de documentations, d’informations pour pouvoir lui proposer les axes d’amélioration sur les nouvelles offres.

On peut prendre cet exemple comme un premier exemple. On peut prendre autre un exemple qui va plus parler à tout le monde. Tous les sites web en général ont une foire aux questions. Cette foire aux questions, on peut s’en servir comme base de données pour entraîner justement un IA générative pour qu’elle puisse justement apprendre à orienter de nouveaux clients en fonction des expériences et des retours d’expérience d’autres clients qui sont passés par les mêmes étapes.

Voilà une 2e utilisation d’utilisation pour l’IA générative.

 

Hubert: Donc en fait dans ce dans un scénario, tu vas bénéficier de toutes les questions posées par les personnes et tu pourras améliorer ta réponse ou intégrer des systèmes de dialogue que tu retrouves sur les sites Internet avec une IA générative qui est capable de répondre en live sur ces questions.

 

Amine: Vraiment donc c’est l’équivalent d’un Chatbot que l’on va intégrer sur un site web et qui a la connaissance de toutes les questions qui ont été posées par les clients.

 

Hubert: Très bien. Donc dans ces scénarios là il faut une IA générative, donc la première chose c’est d’aller choisir des modèles de données des LLM au fait ça veut dire quoi ?

 

Amine: Ce sont des Larges Modèles de langage (Large Language Model).

En effet, le choix du LLM, c’est quelque chose de primordial, tout simplement parce que on a des LLM qui vont être davantage performants sur la génération de textes, alors que d’autres vont être plus performants sur la génération de code. D’autres vont être plus performants sur des éléments de logique et donc on a plusieurs benchmarks pour pouvoir comparer en fonction du cas d’utilisation ou du cas d’usage que l’on souhaite en faire. C’est le point de départ de tout projet d’IA génératif. Une fois que l’on aura identifié le cas d’usage, on pourra sélectionner donc les LLM qui vont performer le mieux donc sur ce cas.

 

Hubert: En fait tu as accès à une plateforme et tu vas choisir ton LLM. L’idée c’est effectivement choisir le bon LLM pour le bon sujet (Amine: exactement) pour pouvoir en bénéficier. Ce que tu me disais, c’est que derrière cette installation du LLM et la création de la plateforme, on va utiliser la technique du RAG.

 

Amine: Le RAG, c’est une technique et c’est également une architecture. En anglais c’est Retrieval Augmented Generation (en français : génération augmentée de récupération) qui se traduit littéralement par la récupération de la génération augmentée. ce que ça signifie plus exactement, c’est que l’IA Générative va augmenter sa capacité à générer du texte ou du contenu plus généralement à l’aide des données de l’entreprise. Donc c’est l’augmentation de la génération de l’IA avec nos propres données et donc les données.

 

Hubert: Un LLM lorsque que tu l’installes, Il sert à répondre à tout mais bien évidemment il ne connaît pas les données de l’entreprise. Il est donc trop généraliste et tu vas le spécialisé grâce à la technique du RAG. Tu disais qu’il y avait plusieurs parties dans le RAG dans la façon dont on va aller se connecter aux données.

 

Amine: On peut en effet entraîner ou se connecter aux données de l’entreprise de plusieurs manières différentes. Donc ça va être soit du réentraînement du modèle ce qui peut être une tâche assez chronophage et assez coûteuse. Ça dépend du cas d’utilisation bien évidemment. Est-ce qu’on a besoin d’être opérationnel assez rapidement ou est-ce qu’on peut se permettre de réentraîner un modèle ?

On aussi a ce qu’on appelle l’indexation. L’indexation c’est le fait de venir récupérer les données avec lesquelles on souhaite entraîner cette IA. On va les placer dans ce qu’on appelle un espace sémantique. Un espace sémantique, C’est la façon dont une IA générative se représente les données. C’est l’équivalent d’un espace vectoriel ou d’un espace à 3 dimensions si on souhaite réduire le nombre des dimensions de manière à ce que ça soit imaginable et compréhensible par l’homme. Mais généralement, on va avoir N dimensions avec un N qui qui va être assez élevé.

Qu’est-ce que cela signifie ? Plus exactement, cela signifie que, lorsqu’un utilisateur va envoyer un prompt à une IA générative, cette IA générative va sélectionner et va donc faire une analyse sémantique de ce prompt là pour pouvoir placer la demande ou le besoin de l’utilisateur sur cet espace sémantique qui représente en gros la compréhension de l’IA générative de notre monde à nous et de nos données.

 

Hubert: Donc vraiment la connexion avec notre monde. On est vraiment à l’intérieur finalement L’IA générative (c’est génial !).

Donc on a choisi le LLM, on s’est placé dans le cloud, ou alors on a fait l’effort de créer une plate-forme On premise dans certains sujets qui nécessitent encore plus de sécurité. On a fait LLM, on a fait notre RAG. Il reste encore de choses à faire du point de vue de la sécurité ?

 

Amine: Bien évidemment, la sécurité, c’est un point primordial, comme dans tout projet IA en général où plus globalement dans tout projet data. Prenons l’exemple de Microsoft. Si on est premise, on a une gestion de la sécurité qui va être particulière, donc ça sera du local. Mais prenons l’exemple du cloud. On a sur Microsoft Azure ce qu’on appelle « l’Intra ID ». « L’Intra ID » nous permet d’identifier chacun des utilisateurs de cet environnement que l’on leur a mis à disposition.

Chacun des utilisateurs a déjà des accès qui lui sont attribués. On peut donc avoir accès à certaines bases de données et à d’autres non. En fonction de cette intra-ID, une IA générative déployée sur Azure pourra filtrer donc les données qu’il doit fournir à chacun de ses utilisateurs en fonction du groupe d’utilisateurs auquel il appartient. Donc, en général, un DSI va avoir accès à la totalité des données de l’entreprise, alors qu’un collaborateur côté IT n’est pas censé avoir accès aux derniers rapports financiers de l’entreprise.

 

Hubert: De ce que tu disais sur l’exemple d’une équipe commerciale, ça peut être pareil entre une direction commerciale et des commerciaux peut-être des capacités de filtrer certaines choses plus stratégique? On peut filtrer de manière stratégique en respectant. Donc déjà dans un premier temps, vu qu’on va entraîner une lien générative, le RGPD donc c’est quelque chose.

 

Hubert: Ça, c’est au moment de l’entraînement.

 

Amine: Absolument donc au moment de l’entraînement ( et par la suite) on a ce qu’on appelle également des « filtres de contenu ». Généralement lorsqu’on va déployer une IA générative dans une entreprise, c’est pour un besoin précis et spécifique. Aller demander une recette de cuisine à une IA qui est censé générer des offres, c’est un bias !

 

Hubert: En fait, tu vas payer, l’entreprise va payer. Pour cette recette de cuisine.

 

Amine: C’est ça, elle va payer, même si le prix du token reste assez négligeable. Mais c’est si l’utilisation est répandue ou si on prend l’exemple que l’on avait donné un peu plus tôt sur le chatbot intégré au site web qui sera déployé à une échelle beaucoup plus grande, tous les clients pourront demander à ce chatbot (qui est destiné à faire une foire aux questions), des recettes de cuisine et là on peut voir la consommation exploser, ce qui n’était pas l’objectif initial !

 

Hubert: Très bien. Donc cette capacité d’encadrer tout ça, c’est quelque chose de très important. Et aussi le respect d’utiliser de GDPR. Il y a aussi l’internet dans le L’IA Act. L’IA Act impose des règles au comportement des IA.

 

Amine: l’IA Act, c’est un consensus européen pour réglementer l’utilisation de l’IA générative.

 

Hubert: Cela peut effectivement aussi avoir un impact dans les IA internes à une entreprise.

 

Amine: Exactement ce qui aura forcément un impact, je dirais sur les IA d’entreprise en Europe. Il existe d’autres équivalents, que ce soit en Amérique du Nord ou en Asie. Mais nous sommes en Europe !

 

Hubert: Très bien, donc là on l’a descendu notre projet. Après ça reste un projet Informatique classique. Donc on va j’imagine cadrer un peu les choses, bien choisir les sujets, valider avec les métiers, la faisabilité. Et après, ça se roule un peu comme un projet classique.

 

Amine: C’est exactement ça. Ça reste assez similaire à ce qui se fait pour un projet de machine Learning classique, ou de data plus généralement. Donc on a parlé de l’aspect sécurité. Il y a un nouvel aspect qui intervient, c’est l’aspect filtrage de contenu. Mais il y aura également pour commencer un projet data, bien évidemment l’identification du cas d’usage ce qui est le point de départ et ce qui est primordial. Pourquoi est-ce que j’ai besoin de cette IA génératif et qu’est-ce que j’attends en retour ? C’est le point qui me permet justement de voir si j’ai réussi à atteindre mon objectif ou s’il reste des éléments à améliorer davantage. La qualité de la donnée est quelque chose d’indispensable.

 

Hubert: si la qualité de la donnée est pas bonne en entrée plus en sortie ca ne sera pas émouvant.

 

Amine: En effet, de la même manière qu’un enfant va apprendre, (j’adore prendre cet exemple). S’il y a des biais, des stéréotypes sur les données en amont d’entraînement, il y en aura forcément en sortie.

 

Amine: Donc je vous prends l’exemple le plus récurrent. C’est l’exemple de l’IA génératif pour un service de ressources humaines. Si, historiquement, Il y avait des biais sur la manière de sélectionner les différents candidats pour un certain poste, et que j’ai entraîné avec ces données-là j’ai entraîné donc une IA générative, Eh bien les biais seront retrouvés en sortie également.

 

Amine: Donc c’est quelque chose sur lequel Microsoft met beaucoup l’accent, c’est le fait de ne pas s’égréger ou ne pas ne pas mal se comporter, ou plutôt ne pas avoir de préjugés par rapport à une communauté, peu importe la Communauté ou bien des types de personnes. Ca peut être : autrefois nous ne pouvions pas avoir de de personnes avec un certain handicap sur un poste en particulier. Aujourd’hui, grâce à l’évolution de la technologie, cette personne peut parfaitement effectuer toutes les taches de ce métier. Donc les données avec lesquelles doit être entraîné ce modèle doivent être mises à jour.

 

Hubert: il peut y avoir des biais.

 

Amine: oui mais aussi le comportement humain est quelque chose qui est forcément sujet à évoluer, à changer. Donc dans tout projet, on va généralement rencontrer ce qu’on appelle un drift de la donnée. Ce drift de la donnée, c’est ce qui symbolise quantitativement l’évolution du comportement humain.

 

Hubert: Donc effectivement, c’est un projet de data avec des problèmes de qualité donnée, des particularités à traiter. La conclusion c’est qu’il faut y aller !

 

Amine: La conclusion, c’est qu’il faut y aller !

 

Hubert: Même s’il y a des complexités et des particularités. J’ajouterais une autre chose, c’est que c’est vrai que c’est exceptionnel. On l’a vu au moment de l’arrivée de de de cloud où les cloud nous ont permis d’avoir cette élasticité, de pouvoir ne pas avoir de de limites et l’IA nous nous nous permet de répondre à des enjeux importants donc il faut y aller ! On sait qu’on est dans le temps. On fait un premier projet, on regarde, on apprend, on intègre l’IA, on intègre aussi peut-être le fait que tout le monde sache bien l’utiliser, se l’approprie et on évolue de d’année en année sur un parcours d’intégration de l’IA.

 

Amine: Absolument, c’est comme tout projet d’intelligence artificielle. L’IA va connaître un processus itératif au fur et à mesure de son évolution et de son intégration dans l’entreprise. Donc c’est un système de fonctionnement itératif. On aura un certain besoin auquel on va répondre dans un premier temps. Par la suite on va tout de suite observer des évolutions à apporter donc à cette intelligence artificielle que l’on va pallier grâce à un réentraînement grâce à l’amélioration des données. Ou grâce à ce qu’on appelle aussi des filtrages de contenus, des méta prompts, c’est à dire des prompts qui vont être internes dans l’IA, des messages système donc qui vont diriger la réponse de l’IA pour à la fois structurer et maîtriser le côté finops, ce qui est très important.

 

Hubert: On va parler du côté FinOps, c’est qu’effectivement dans un projet, il y a aussi à à vérifier que c’est à gérer le coût.

 

Amine: Absolument. Sur les plateformes On Premise, la question ne se pose pas car on a en général un matériel qui a été acheté et dont l’amortissement va se faire sur plusieurs années). Mais côté cloud, il faut absolument surveiller sa consommation. Je reprends l’exemple qu’on a pris au tout début. Celui du Chat à intégrer dans un site web liée à la relation client pour la FAQ. Celui-ci, une fois utilisé à grande échelle, va générer ce qu’on appelle des tokens. Un token c’est une chaîne de caractères, un ensemble de lettres qui sont accolées, une très petite phrase ou un grand mot et qui génère donc un cout.

Après Le RAG est le 2e élément générateur de coûts dans la mise en production d’une IA générative. Ces coûts ci on peut bien évidemment les gérer de la même manière qu’on va gérer tous les autres outils, donc sur Azure, sur Microsoft grâce à des alertes, grâce à un monitoring où on va également les gérer donc en limitant, en posant des restrictions donc à l’IA générative quant à la génération et à la créativité du contenu. Si on a besoin d’une FAQ on n’a pas besoin que l’IA Générative utilise le style de Molière ou de longues phrases pour répondre aux besoins du client. Il faut donc orienter cet IA générative et l’axer sur le besoin du client qui l’utilise. Et de notre côté on aura besoin évidemment de mettre en place et des alertes et des limites de facturation sur cette IA générative.

 

Hubert: Un petit complément aussi dont on n’a pas parlé, c’est qu’évidemment on parle ici de l’IA générative que l’on construit. Mais on a accès aussi dans l’entreprise à d’autres formes d’IA Générative. Il y a par exemple Copilot dans Office 365 et des IA prédéveloppées pour différents sujets. On connaît très bien par exemple la génération de code qui est intégré dans beaucoup d’outils de développement qui sont des IA génératives.

 

Merci beaucoup pour ces échanges.

 

L’étape d’après, on en reparlera peut-être un peu plus tard ça sera effectivement l’évolution et l’intégration des IA sur la gestion, l’automatisation, les processus. Donc c’est cette capacité liée à agir d’une façon séquentielle, à travailler sur des sujets, à agir peut-être plus fortement.

 

Encore une autre étape !

 

Merci beaucoup Amine de nous avoir éclairé sur la partie IA générative.

 

Amine: Merci bien pour moi.