Skip to content

Le menu Gen AI - Observability Settings

  • L’observabilité des modèles de langage (LLM Observability) aide à surveiller, d’analyser et de comprendre le comportement des modèles de langage à grande échelle.
  • Cela inclut la collecte de données sur leurs performances, la détection d’anomalies et la compréhension des erreurs qu’ils peuvent produire.
  • L’objectif est de garantir que ces modèles fonctionnent de manière fiable, transparente, en fournissant des informations qui permettent d’améliorer leur performance et de corriger les problèmes potentiels.
  • Plus précisément, nous pourrons :
    • Voir les différents enchainements d’appels de LLM avec le prompt d’entrée et de sortie
    • Analyser les portions de documents contextuels utilisés
    • Suivre les informations et les métriques sur les coûts, le nombre de jetons consommés, la latence, etc.

Pour accéder à cette page il faut bénéficier du rôle botUser.
( plus de détails sur les rôles dans securité ).

Configuration

Pour permettre à Tock de se connecter à un outil d’observabilité, un écran de configuration a été mis en place :

LLM Observability

Utilisation