Moteur NLU LLM
Le moteur NLU LLM dans Hexabot exploite la puissance des grands modèles de langage (LLM) pour détecter les intentions et déterminer la langue de manière efficace. Ce moteur est idéal pour les utilisateurs qui souhaitent une solution pré-entraînée et rapide sans avoir besoin de développer et d'entraîner des modèles d'IA personnalisés. Ci-dessous se trouve le guide détaillé sur la configuration et l'utilisation du moteur NLU LLM dans Hexabot.
Configuration du moteur NLU LLM

Étape 1 : Définir l'assistant NLU par défaut
Accédez à «Paramètres» depuis le menu principal.
Sélectionnez l'onglet «Chatbot».
Assurez-vous que «Assistant NLU par défaut» est défini sur "llm-nlu-helper".
Cela garantit qu'Hexabot utilise le moteur NLU alimenté par LLM pour le traitement des intentions et la détection de la langue.
Étape 2 : Sélectionner l'assistant LLM par défaut
Dans le même onglet « Chatbot », localisez le paramètre « Assistant LLM par défaut ».
Choisissez votre assistant LLM préféré parmi les options installées. Ci-dessous quelques assistants LLM à titre d'exemple :
Assistant Ollama (hexabot-helper-ollama) : Un assistant pour l'intégration avec Ollama, une plateforme LLM conçue pour une utilisation localisée ou conteneurisée. Installez Ollama soit localement sur votre machine, soit en tant que conteneur Docker.
Assistant Google Gemini (hexabot-helper-gemini): Un assistant pour l'intégration avec Google Gemini, le LLM avancé de Google pour des applications IA haute performance. Générez une clé API depuis la Google Cloud Console. Configurez l'assistant avec la clé API dans les paramètres d'Hexabot.
Assistant OpenAI ChatGPT (hexabot-helper-chatgpt): Un assistant pour l'intégration avec ChatGPT d'OpenAI, un LLM largement utilisé et polyvalent. Générez une clé API depuis le tableau de bord OpenAI. Configurez l'assistant avec la clé API dans les paramètres d'Hexabot.
3. Avant de passer aux étapes suivantes, assurez-vous que l'assistant nécessaire est installé et entièrement configuré.
Étape 3 : Configurer les invites du moteur NLU LLM
Les paramètres de l'assistant NLU LLM vous permettent de configurer et d'affiner le comportement du moteur NLU alimenté par LLM dans Hexabot. Ces paramètres incluent des options pour sélectionner le modèle, définir les invites de détection de la langue et personnaliser les invites de classification des traits. Ci-dessous les détails et les directives pour configurer ces paramètres.

Accédez à «Paramètres» depuis le menu principal.
Sélectionnez l'onglet «Moteur NLU LLM».
Spécifiez le nom du LLM (grand modèle de langage) que vous souhaitez utiliser. Laissez ce champ vide pour utiliser le modèle par défaut spécifié dans les paramètres de l'assistant LLM. Exemples :
Modèles Ollama : https://ollama.com/library (Notez que vous devrez télécharger chaque modèle que vous souhaitez utiliser dans Ollama)
Modèles Google Gemini : https://ai.google.dev/gemini-api/docs/models/gemini#model-variations
Modèles OpenAI ChatGPT : https://platform.openai.com/docs/models/gp
L' invite de détection de la langue est utilisée pour identifier la langue d'un texte d'entrée donné. L'assistant LLM utilise ce modèle pour générer dynamiquement des invites.
L' invite du classificateur de traits est conçue pour des tâches telles que la détection d'intention, le sentiment ou d'autres attributs de haut niveau à partir du texte d'entrée.
Étape 4 : Tester le moteur NLU LLM
Accédez à "NLU" depuis le menu principal puis sélectionnez l'onglet "Entités NLU" pour ajouter des entités et/ou des valeurs d'intention.
Utilisez le formulaire d'entraînement NLU pour tester du texte et voir si les prédictions sont bonnes.

Enfin, vous pouvez utiliser les entités NLU lors de la configuration des déclencheurs dans les blocs au sein de l' Éditeur Visuel
Considérations clés
1. Performances et limitations : Les LLM excellent dans la détection des intentions et des langues sans entraînement personnalisé, mais ils n'ont pas de scores de confiance et peuvent fonctionner de manière médiocre avec des langues ou dialectes moins courants.
2. Sécurité et confidentialité :
Utilisez des options de déploiement local comme Ollama si la confidentialité est une préoccupation.
Pour les API basées sur le cloud (Google Gemini et OpenAI ChatGPT), assurez-vous que les clés API sont gérées de manière sécurisée et respectent les politiques de sécurité de l'organisation.
Mis à jour
Ce contenu vous a-t-il été utile ?