langsmith-observability
LLM observability platform for tracing, evaluation, and monitoring. Use when debugging LLM applications, evaluating model outputs against datasets, monitoring production systems, or building systematic testing pipelines for AI applications.
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
LLM observability platform for tracing, evaluation, and monitoring. Use when debugging LLM applications, evaluating model outputs against datasets, monitoring production systems, or building systematic testing pipelines for AI applications.
How to use
Zainstaluj pakiet LangSmith poleceniem pip install langsmith. Następnie ustaw zmienne środowiskowe: LANGSMITH_API_KEY z twoim kluczem API oraz LANGSMITH_TRACING na wartość true, aby włączyć automatyczne śledzenie.
Ozdób funkcję, która wywołuje model, dekoratorem @traceable z biblioteki langsmith. Dzięki temu każde wywołanie LLM będzie automatycznie rejestrowane z inputami, outputami i opóźnieniami.
Uruchom aplikację normalnie. LangSmith będzie w tle zbierać dane o wszystkich wywołaniach modelu i wysyłać je do platformy.
W dashboardzie LangSmith przejrzyj ślady (traces) swoich aplikacji. Sprawdź czasy wykonania, użycie tokenów i koszty dla każdego kroku łańcucha.
Stwórz zestawy testowe z rzeczywistych danych produkcyjnych lub ręcznie. Uruchom ewaluatory wbudowane lub własne, aby systematycznie testować jakość outputów modelu.
Skonfiguruj monitorowanie dla systemów w produkcji, aby śledzić błędy, anomalie i trendy w metrikach. Współpracuj z zespołem, dzieląc się wynikami i iterując nad promptami.