Le menu Gen AI - Observability Settings
- L’observabilité des modèles de langage (LLM Observability) aide à surveiller, d’analyser et de comprendre le comportement des modèles de langage à grande échelle.
- Cela inclut la collecte de données sur leurs performances, la détection d’anomalies et la compréhension des erreurs qu’ils peuvent produire.
- L’objectif est de garantir que ces modèles fonctionnent de manière fiable, transparente, en fournissant des informations qui permettent d’améliorer leur performance et de corriger les problèmes potentiels.
- Plus précisément, nous pourrons :
- Voir les différents enchainements d’appels de LLM avec le prompt d’entrée et de sortie
- Analyser les portions de documents contextuels utilisés
- Suivre les informations et les métriques sur les coûts, le nombre de jetons consommés, la latence, etc.
Pour accéder à cette page il faut bénéficier du rôle botUser.
( plus de détails sur les rôles dans securité ).
Configuration
Pour permettre à Tock de se connecter à un outil d’observabilité, un écran de configuration a été mis en place :
Utilisation
- Voici la liste des fournisseurs d’observabilité des LLM qui sont pris en compte par Tock.
- Veuillez vous référer à la documentation de chaque outil pour comprendre comment l’utiliser.