ai-model-wechat
Use this skill when developing WeChat Mini Programs (小程序, 企业微信小程序, wx.cloud-based apps) that need AI capabilities. Features text generation (generateText) and streaming (streamText) with callback support (onText, onEvent, onFinish) via wx.cloud.extend.AI. Built-in models include
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Use this skill when developing WeChat Mini Programs (小程序, 企业微信小程序, wx.cloud-based apps) that need AI capabilities. Features text generation (generateText) and streaming (streamText) with callback support (onText, onEvent, onFinish) via wx.cloud.extend.AI. Built-in models include Hunyuan (hunyuan-2.0-instruct-20251111 recommended) and DeepSeek (deepseek-v3.2 recommended). API differs from JS/Node SDK - streamText requires data wrapper, generateText returns raw response. NOT for browser/Web apps (use ai-model-web), Node.js backend (use ai-model-nodejs), or image generation (not supported).
How to use
Zainstaluj skill ai-model-wechat w swoim projekcie CloudBase. Upewnij się, że pracujesz w środowisku WeChat Mini Program (小程序, 企业微信小程序 lub wx.cloud-based app).
Zaimportuj wx.cloud.extend.AI w swoim kodzie Mini Program. Skill dostarcza dwie główne metody: generateText do jednorazowego generowania tekstu oraz streamText do przesyłania odpowiedzi w czasie rzeczywistym.
Dla generowania tekstu użyj metody generateText, która zwraca surową odpowiedź. Nie wymaga wrappera danych i jest idealna do szybkich zapytań bez potrzeby obsługi progresywnego streamowania.
Dla streamowania tekstu użyj streamText z wrapperem danych. Zarejestruj callbacki: onText do obsługi przychodzących fragmentów tekstu, onEvent do obsługi zdarzeń systemowych oraz onFinish do wykonania akcji po zakończeniu streamowania.
Wybierz model z dostępnych opcji — Hunyuan (zalecana wersja hunyuan-2.0-instruct-20251111) lub DeepSeek (zalecana wersja deepseek-v3.2). Oba modele są zoptymalizowane dla środowiska WeChat.
Pamiętaj, że skill nie obsługuje generowania obrazów ani nie jest przeznaczony do aplikacji webowych (użyj ai-model-web) lub backendów Node.js (użyj ai-model-nodejs).