Démystifier l'IA agentique

Ces derniers temps, l'IA agentique fait le buzz sur LinkedIn et des cas d'utilisation semblent apparaître un peu partout. En effet, il s'agit d'une technologie puissante qui redéfinit la façon dont nous concevons et déployons des systèmes d'intelligence artificielle. Dans cet article, je démystifie de quoi il s'agit et je me plonge dans 5 des principaux flux de travail d'IA agentique.
Commençons par définir l'IA agentique.
Qu'est-ce que l'IA agentique ?
L'IA agentique va au-delà des interactions basées sur le chat entre de grands modèles linguistiques (LLM) pour créer des agents autonomes capables de prendre des décisions, d'utiliser des outils et de s'adapter à des tâches complexes.
Les éléments qui font qu'un système d'IA est « agentique » sont encore sujets à débat. Nous pouvons toutefois constater qu'il inclut ou combine souvent les éléments suivants :
- Contrôle des agences et des flux de travail: Contrairement à un chatbot statique qui ne répond qu'aux instructions, un agent dispose d'une certaine autonomie. Il décide de la manière d'aborder un problème et de le décomposer en tâches. Un type particulier d'agence est la capacité des LLM à contrôler une partie du flux de travail, à savoir décider des tâches à exécuter ensuite ou du nombre de fois
- Plusieurs LLM : Un autre élément qui rend un système d'IA « agentique » est la présence de nombreux agents. En d'autres termes, pas un seul LLM, mais plusieurs appels vers celui-ci ou très probablement plusieurs appels vers différents LLM optimisés pour certaines tâches.
- Utilisation de l'outil: Enfin, un élément fréquemment mentionné lorsqu'on parle d'agents est celui des outils. La capacité des LLM à exécuter du code et donc à agir dans le monde réel, par exemple en organisant des réunions ou en envoyant des e-mails.
Découvrons 5 flux de travail d'IA agentic couramment utilisés et voyons comment ils fonctionnent dans des scénarios réels.
Pour le contexte, les diagrammes ci-dessous indiquent les étapes codées en bleu et les appels LLM en rouge.
1. Enchaînement rapide
Qu'est-ce que c'est:
Le chaînage rapide implique plusieurs appels LLM séquentiels, où la sortie de l'un devient l'entrée du suivant. Cela permet à un agent d'affiner sa compréhension, de classer le problème, puis de produire une meilleure réponse finale. Il peut éventuellement y avoir une porte où le code est exécuté sur la réponse précédente pour « calculer » la question suivante.

Exemple:
Les CV au format PDF sont désormais surpassés. Désormais, vous pouvez avoir un robot de discussion qui répond aux personnes et les incite à parler de votre carrière, et j'en ai créé un !
Lors de sa création, j'ai dû relever le défi de la génération augmentée par extraction (RAG) qui récupérait des informations sur mon CV à partir d'une base de connaissances. Au départ, le système RAG a extrait des cas d'utilisation du site Web de mon entreprise et les a intégrés à mon CV personnel, créant ainsi de la confusion.
Pour résoudre ce problème, j'ai implémenté le chaînage rapide :
- Le premier appel LLM classe la question et filtre la base de données RAG pour inclure ou exclure le contenu spécifique à l'entreprise en fonction des questions posées.
- Le deuxième appel LLM a utilisé ce contexte filtré pour générer une réponse plus précise.
Ce processus en deux étapes a transformé un système de questions-réponses statique en un agent dynamique capable de raisonner sur la meilleure façon de traiter chaque question. Et il est définitivement « agentique » car il décidera de manière autonome quel contexte sera récupéré.
Vous pouvez voir le résultat sur ce lien: faites défiler légèrement la page vers le bas et attendez que le chatbot se charge (N.B. : L'application n'est pas toujours active car cela coûterait trop cher. Si par hasard elle ne se charge pas, rafraîchissez simplement la page).
2. Routage
Qu'est-ce que c'est:
Dans l'IA agentique, le routage consiste à diriger par programmation une question ou une tâche vers le bon outil ou le bon modèle, en fonction du contexte. Il est possible de créer des LLM spécialisés qui sont optimisés pour des tâches spécifiques ou qui répondent dans un format spécifique. Une classification de la question peut être effectuée pour l'acheminer ensuite vers le LLM le plus pertinent à utiliser.

Exemple
Dans le cadre d'un projet pour la plateforme de gestion des connaissances d'un client, nous avons dû décider si une question nécessitait une explication générale, une action de récupération de données ou un appel d'API externe.
Nous avons construit une étape de routage qui mélangeait :
- Une classification de la question, ce qui n'est pas improbable dans l'exemple précédent concernant l'enchaînement rapide. En fait, le routage peut être considéré comme un chaînage rapide avec plusieurs options LLM.
- Les informations sur l'origine de l'utilisateur, car les utilisateurs pouvaient accéder au chatbot par plusieurs moyens.
Selon le choix, la réponse a été envoyée à un LLM spécifique. Par exemple :
- Si une question concernant le « calendrier du projet » était détectée, la demande était acheminée vers un agent équipé d'un outil permettant de se connecter à la base de données des projets.
- Si la question portait sur les « meilleures pratiques », elle faisait appel à un LLM contextualisé de la société Confluence.
Cette méthode a permis au même chatbot d'effectuer efficacement une plus grande variété de tâches.
3. Parallélisation
Qu'est-ce que c'est:
La parallélisation implique plusieurs LLM sans nécessairement leur conférer un grand pouvoir de décision. En fait, la parallélisation implique l'exécution simultanée de plusieurs processus LLM pour la même tâche, puis la combinaison des résultats. Cela peut améliorer la robustesse et réduire les biais.

Exemple:
Dans le cadre d'un projet évaluant le niveau de maturité de différentes réponses à un questionnaire, nous avons calculé les probabilités qu'un texte spécifique corresponde à un niveau de maturité. Au lieu de nous fier à une seule sortie LLM, nous avons exécuté trois LLM en parallèle et avons fait la moyenne des résultats. Cette approche a réduit le risque qu'une seule réponse aberrante fausse le résultat et a produit un résultat plus robuste.
4. Orchestrateur
Qu'est-ce que c'est:
L'orchestration est probablement le flux de travail le plus « agentique » de cette liste car il combine tous les éléments qui le définissent. L'orchestration est similaire au routage où le routeur est également un LLM. L'orchestrateur agit comme le « cerveau » du système en planifiant et en attribuant des tâches à d'autres LLM directement sans étapes codées intermédiaires. Cela signifie qu'il crée et coordonne les différentes étapes, en décidant quand et s'il convient d'enchaîner ou d'acheminer.

Exemple:
Lors du téléchargement de brochures depuis notre site Web, la personne intéressée doit écrire un court message et quelques informations la concernant. Nous avons conçu un orchestrateur pour détecter d'abord si la demande était du spam ou si elle était légitime. Si la demande de téléchargement était légitime, le système appelle un deuxième LLM pour estimer son urgence et la classer dans l'un de nos secteurs d'activité : Data Strategy, DataLiteracy ou Enterprise Analytics. Selon cette décision, un LLM ou des processus supplémentaires peuvent être appelés soit pour :
- Il vous suffit d'envoyer la brochure
- Envoyez la brochure contenant des informations spécifiques au secteur d'activité qui vous intéresse
- De plus, si le message est urgent, envoyez un message sur une chaîne Teams afin que nous soyons rapidement informés et que nous puissions agir rapidement
Ce type d'orchestration peut permettre aux LLM de prendre en charge des tâches beaucoup plus complexes.
5. Validateur
Qu'est-ce que c'est:
La validation est une étape cruciale des flux de travail d'IA agentic qui peuvent être réellement intégrés à n'importe quel autre flux de travail. Cela implique l'utilisation d'un deuxième LLM pour vérifier la qualité et l'exactitude d'une réponse avant la livraison finale avec des critères définis dans le prompt. Par exemple, nous pouvons ajouter un contexte à respecter et demander au deuxième LLM si la réponse du premier correspond. Cependant, cela peut aussi être beaucoup plus générique, comme dans « Vérifiez que la réponse que vous avez reçue est écrite sur un ton professionnel ».

Exemple:
Nous avons créé un chatbot pour une université afin de répondre à des questions sur les relevés de notes des cours. Pour nous assurer que les réponses du chatbot étaient précises et fiables, nous avons utilisé une validation en deux étapes
- Le premier LLM a généré une réponse.
- Le deuxième LLM a fait office de validateur en vérifiant l'exactitude et l'exhaustivité de la réponse.
Si le validateur signalait des problèmes, le premier LLM était invité à répondre à nouveau à la question, avec désormais les commentaires du validateur dans l'invite.
Cette boucle a considérablement amélioré la fiabilité des réponses.
Conclusion
L'IA agentique est un puissant modèle de conception permettant de créer des systèmes intelligents qui vont au-delà des réponses statiques. En comprenant et en appliquant ces concepts, vous pouvez créer des agents plus utiles, plus fiables et plus adaptés aux besoins des utilisateurs.
S'il y a un message, j'aimerais que vous retiriez de cet article, c'est que les humains ont toujours un travail. Bien que les appels uniques à une API LLM puissent déjà être puissants, il reste encore beaucoup à faire pour les orchestrer. Cela nous permettra d'obtenir de meilleurs résultats et de résoudre des problèmes plus complexes. D'une certaine manière, de faiseurs, nous sommes devenus des designers.
Mais comment pouvons-nous alors contrôler ces systèmes et nous assurer que leur comportement correspond à nos attentes ? Restez à l'affût du prochain article.
Auteurs :
Luca Pescatore
Ces derniers temps, l'IA agentique fait le buzz sur LinkedIn et des cas d'utilisation semblent apparaître un peu partout. En effet, il s'agit d'une technologie puissante qui redéfinit la façon dont nous concevons et déployons des systèmes d'intelligence artificielle. Dans cet article, je démystifie de quoi il s'agit et je me plonge dans 5 des principaux flux de travail d'IA agentique.
Commençons par définir l'IA agentique.
Qu'est-ce que l'IA agentique ?
L'IA agentique va au-delà des interactions basées sur le chat entre de grands modèles linguistiques (LLM) pour créer des agents autonomes capables de prendre des décisions, d'utiliser des outils et de s'adapter à des tâches complexes.
Les éléments qui font qu'un système d'IA est « agentique » sont encore sujets à débat. Nous pouvons toutefois constater qu'il inclut ou combine souvent les éléments suivants :
- Contrôle des agences et des flux de travail: Contrairement à un chatbot statique qui ne répond qu'aux instructions, un agent dispose d'une certaine autonomie. Il décide de la manière d'aborder un problème et de le décomposer en tâches. Un type particulier d'agence est la capacité des LLM à contrôler une partie du flux de travail, à savoir décider des tâches à exécuter ensuite ou du nombre de fois
- Plusieurs LLM : Un autre élément qui rend un système d'IA « agentique » est la présence de nombreux agents. En d'autres termes, pas un seul LLM, mais plusieurs appels vers celui-ci ou très probablement plusieurs appels vers différents LLM optimisés pour certaines tâches.
- Utilisation de l'outil: Enfin, un élément fréquemment mentionné lorsqu'on parle d'agents est celui des outils. La capacité des LLM à exécuter du code et donc à agir dans le monde réel, par exemple en organisant des réunions ou en envoyant des e-mails.
Découvrons 5 flux de travail d'IA agentic couramment utilisés et voyons comment ils fonctionnent dans des scénarios réels.
Pour le contexte, les diagrammes ci-dessous indiquent les étapes codées en bleu et les appels LLM en rouge.
1. Enchaînement rapide
Qu'est-ce que c'est:
Le chaînage rapide implique plusieurs appels LLM séquentiels, où la sortie de l'un devient l'entrée du suivant. Cela permet à un agent d'affiner sa compréhension, de classer le problème, puis de produire une meilleure réponse finale. Il peut éventuellement y avoir une porte où le code est exécuté sur la réponse précédente pour « calculer » la question suivante.

Exemple:
Les CV au format PDF sont désormais surpassés. Désormais, vous pouvez avoir un robot de discussion qui répond aux personnes et les incite à parler de votre carrière, et j'en ai créé un !
Lors de sa création, j'ai dû relever le défi de la génération augmentée par extraction (RAG) qui récupérait des informations sur mon CV à partir d'une base de connaissances. Au départ, le système RAG a extrait des cas d'utilisation du site Web de mon entreprise et les a intégrés à mon CV personnel, créant ainsi de la confusion.
Pour résoudre ce problème, j'ai implémenté le chaînage rapide :
- Le premier appel LLM classe la question et filtre la base de données RAG pour inclure ou exclure le contenu spécifique à l'entreprise en fonction des questions posées.
- Le deuxième appel LLM a utilisé ce contexte filtré pour générer une réponse plus précise.
Ce processus en deux étapes a transformé un système de questions-réponses statique en un agent dynamique capable de raisonner sur la meilleure façon de traiter chaque question. Et il est définitivement « agentique » car il décidera de manière autonome quel contexte sera récupéré.
Vous pouvez voir le résultat sur ce lien: faites défiler légèrement la page vers le bas et attendez que le chatbot se charge (N.B. : L'application n'est pas toujours active car cela coûterait trop cher. Si par hasard elle ne se charge pas, rafraîchissez simplement la page).
2. Routage
Qu'est-ce que c'est:
Dans l'IA agentique, le routage consiste à diriger par programmation une question ou une tâche vers le bon outil ou le bon modèle, en fonction du contexte. Il est possible de créer des LLM spécialisés qui sont optimisés pour des tâches spécifiques ou qui répondent dans un format spécifique. Une classification de la question peut être effectuée pour l'acheminer ensuite vers le LLM le plus pertinent à utiliser.

Exemple
Dans le cadre d'un projet pour la plateforme de gestion des connaissances d'un client, nous avons dû décider si une question nécessitait une explication générale, une action de récupération de données ou un appel d'API externe.
Nous avons construit une étape de routage qui mélangeait :
- Une classification de la question, ce qui n'est pas improbable dans l'exemple précédent concernant l'enchaînement rapide. En fait, le routage peut être considéré comme un chaînage rapide avec plusieurs options LLM.
- Les informations sur l'origine de l'utilisateur, car les utilisateurs pouvaient accéder au chatbot par plusieurs moyens.
Selon le choix, la réponse a été envoyée à un LLM spécifique. Par exemple :
- Si une question concernant le « calendrier du projet » était détectée, la demande était acheminée vers un agent équipé d'un outil permettant de se connecter à la base de données des projets.
- Si la question portait sur les « meilleures pratiques », elle faisait appel à un LLM contextualisé de la société Confluence.
Cette méthode a permis au même chatbot d'effectuer efficacement une plus grande variété de tâches.
3. Parallélisation
Qu'est-ce que c'est:
La parallélisation implique plusieurs LLM sans nécessairement leur conférer un grand pouvoir de décision. En fait, la parallélisation implique l'exécution simultanée de plusieurs processus LLM pour la même tâche, puis la combinaison des résultats. Cela peut améliorer la robustesse et réduire les biais.

Exemple:
Dans le cadre d'un projet évaluant le niveau de maturité de différentes réponses à un questionnaire, nous avons calculé les probabilités qu'un texte spécifique corresponde à un niveau de maturité. Au lieu de nous fier à une seule sortie LLM, nous avons exécuté trois LLM en parallèle et avons fait la moyenne des résultats. Cette approche a réduit le risque qu'une seule réponse aberrante fausse le résultat et a produit un résultat plus robuste.
4. Orchestrateur
Qu'est-ce que c'est:
L'orchestration est probablement le flux de travail le plus « agentique » de cette liste car il combine tous les éléments qui le définissent. L'orchestration est similaire au routage où le routeur est également un LLM. L'orchestrateur agit comme le « cerveau » du système en planifiant et en attribuant des tâches à d'autres LLM directement sans étapes codées intermédiaires. Cela signifie qu'il crée et coordonne les différentes étapes, en décidant quand et s'il convient d'enchaîner ou d'acheminer.

Exemple:
Lors du téléchargement de brochures depuis notre site Web, la personne intéressée doit écrire un court message et quelques informations la concernant. Nous avons conçu un orchestrateur pour détecter d'abord si la demande était du spam ou si elle était légitime. Si la demande de téléchargement était légitime, le système appelle un deuxième LLM pour estimer son urgence et la classer dans l'un de nos secteurs d'activité : Data Strategy, DataLiteracy ou Enterprise Analytics. Selon cette décision, un LLM ou des processus supplémentaires peuvent être appelés soit pour :
- Il vous suffit d'envoyer la brochure
- Envoyez la brochure contenant des informations spécifiques au secteur d'activité qui vous intéresse
- De plus, si le message est urgent, envoyez un message sur une chaîne Teams afin que nous soyons rapidement informés et que nous puissions agir rapidement
Ce type d'orchestration peut permettre aux LLM de prendre en charge des tâches beaucoup plus complexes.
5. Validateur
Qu'est-ce que c'est:
La validation est une étape cruciale des flux de travail d'IA agentic qui peuvent être réellement intégrés à n'importe quel autre flux de travail. Cela implique l'utilisation d'un deuxième LLM pour vérifier la qualité et l'exactitude d'une réponse avant la livraison finale avec des critères définis dans le prompt. Par exemple, nous pouvons ajouter un contexte à respecter et demander au deuxième LLM si la réponse du premier correspond. Cependant, cela peut aussi être beaucoup plus générique, comme dans « Vérifiez que la réponse que vous avez reçue est écrite sur un ton professionnel ».

Exemple:
Nous avons créé un chatbot pour une université afin de répondre à des questions sur les relevés de notes des cours. Pour nous assurer que les réponses du chatbot étaient précises et fiables, nous avons utilisé une validation en deux étapes
- Le premier LLM a généré une réponse.
- Le deuxième LLM a fait office de validateur en vérifiant l'exactitude et l'exhaustivité de la réponse.
Si le validateur signalait des problèmes, le premier LLM était invité à répondre à nouveau à la question, avec désormais les commentaires du validateur dans l'invite.
Cette boucle a considérablement amélioré la fiabilité des réponses.
Conclusion
L'IA agentique est un puissant modèle de conception permettant de créer des systèmes intelligents qui vont au-delà des réponses statiques. En comprenant et en appliquant ces concepts, vous pouvez créer des agents plus utiles, plus fiables et plus adaptés aux besoins des utilisateurs.
S'il y a un message, j'aimerais que vous retiriez de cet article, c'est que les humains ont toujours un travail. Bien que les appels uniques à une API LLM puissent déjà être puissants, il reste encore beaucoup à faire pour les orchestrer. Cela nous permettra d'obtenir de meilleurs résultats et de résoudre des problèmes plus complexes. D'une certaine manière, de faiseurs, nous sommes devenus des designers.
Mais comment pouvons-nous alors contrôler ces systèmes et nous assurer que leur comportement correspond à nos attentes ? Restez à l'affût du prochain article.
Auteurs :
Luca Pescatore
