mistral-core-workflow-a
Execute Mistral AI primary workflow: Chat Completions and Streaming.\nUse when implementing chat interfaces, building conversational AI,\nor integrating Mistral for text generation.\nTrigger with phrases like \
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Execute Mistral AI primary workflow: Chat Completions and Streaming.\nUse when implementing chat interfaces, building conversational AI,\nor integrating Mistral for text generation.\nTrigger with phrases like \
How to use
Upewnij się, że ukończyłeś konfigurację mistral-install-auth i masz ustawioną zmienną środowiskową MISTRAL_API_KEY.
Zainstaluj SDK Mistral AI (@mistralai/mistralai) za pomocą npm, jeśli jeszcze tego nie zrobiłeś.
Wyzwól skill frazami takimi jak "mistral chat", "mistral completion", "mistral streaming" lub "mistral conversation", aby uruchomić podstawową rozmowę.
Dla prostych zapytań użyj funkcji chat() – przekaż wiadomość użytkownika, a skill zwróci odpowiedź z wybranego modelu (domyślnie mistral-small-latest).
Do wieloturowych rozmów wykorzystaj klasę MistralConversation – zarządza historią wiadomości (system, user, assistant) i utrzymuje kontekst między turami.
Dla zaawansowanych przypadków (streaming, JSON mode, moderacja) odwołaj się do dokumentacji README – skill wspiera wszystkie te wzorce produkcyjne.