langfuse-core-workflow-b
Execute Langfuse secondary workflow: Evaluation and scoring.\nUse when implementing LLM evaluation, adding user feedback,\nor setting up automated quality scoring for AI outputs.\nTrigger with phrases like \
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Execute Langfuse secondary workflow: Evaluation and scoring.\nUse when implementing LLM evaluation, adding user feedback,\nor setting up automated quality scoring for AI outputs.\nTrigger with phrases like \
How to use
Upewnij się, że masz zainstalowany Langfuse SDK z skonfigurowanymi kluczami API oraz że zbierasz już ślady (traces) za pomocą langfuse-core-workflow-a.
Zainstaluj pakiet @langfuse/client (wersja 4+) w swoim projekcie, jeśli jeszcze go nie masz.
Wyzwól skill frazami takimi jak "langfuse evaluation", "langfuse scoring", "rate llm outputs", "langfuse feedback", "langfuse datasets" lub "langfuse experiments".
Użyj SDK do tworzenia ocen numerycznych — przekaż traceId, nazwę metryki (np. "relevance"), wartość od 0 do 1 oraz typ danych NUMERIC. Dodaj opcjonalny komentarz opisujący ocenę.
Dla ocen kategorycznych (np. klasyfikacja jakości) podaj wartość tekstową (np. "excellent", "poor") i ustaw typ danych na CATEGORICAL. Możesz oceniać konkretne generacje, podając observationId.
Implementuj oceny boolowskie (tak/nie, zatwierdzone/odrzucone) dla szybkiego feedback'u — użyj wartości 1 lub 0 z typem BOOLEAN. Wszystkie oceny są przypisane do śladów i dostępne w dashboardzie Langfuse do analizy trendów i porównywania wersji promptów.