phoenix-tracing
OpenInference semantic conventions and instrumentation for Phoenix AI observability. Use when implementing LLM tracing, creating custom spans, or deploying to production.
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
OpenInference semantic conventions and instrumentation for Phoenix AI observability. Use when implementing LLM tracing, creating custom spans, or deploying to production.
How to use
Zainstaluj wymaganą bibliotekę: dla Python użyj
pip install arize-phoenix-otel, dla TypeScript zainstaluj@arizeai/phoenix-otelprzez npm lub yarn.Skonfiguruj połączenie z serwerem Phoenix, podając endpoint serwera w ustawieniach inicjalizacji biblioteki.
Wybierz odpowiedni przewodnik referencyjny w zależności od potrzeb: setup dla konfiguracji początkowej, instrumentation dla automatycznego lub ręcznego śledzenia, span-types dla zdefiniowania typów operacji.
Dodaj instrumentację do kodu aplikacji LLM — utwórz spany dla poszczególnych operacji (zapytania, odpowiedzi, wywołania modelu) zgodnie z konwencjami OpenInference.
Wzbogać dane śledzenia metadanymi i atrybutami niestandardowymi, aby lepiej zidentyfikować operacje w produkcji.
Wdrażając w produkcji, skonfiguruj przetwarzanie wsadowe, maskowanie danych wrażliwych i zbieranie adnotacji zwrotnych dla oceny jakości.