voice-ai-development
Expert in building voice AI applications - from real-time voice agents to voice-enabled apps. Covers OpenAI Realtime API, Vapi for voice agents, Deepgram for transcription, ElevenLabs for synthesis, LiveKit for real-time infrastructure, and WebRTC fundamentals. Knows how to
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Expert in building voice AI applications - from real-time voice agents to voice-enabled apps. Covers OpenAI Realtime API, Vapi for voice agents, Deepgram for transcription, ElevenLabs for synthesis, LiveKit for real-time infrastructure, and WebRTC fundamentals. Knows how to build low-latency, production-ready voice experiences. Use when: voice ai, voice agent, speech to text, text to speech, realtime voice.
How to use
- Upewnij się, że masz zainstalowany Python lub Node.js oraz dostęp do API keys wymaganych dostawców (OpenAI, Vapi, Deepgram, ElevenLabs, LiveKit). 2. Załaduj skill voice-ai-development w swoim środowisku Claude/Copilot. 3. Opisz swój przypadek użycia: czy potrzebujesz natywnej komunikacji głos-na-głos (OpenAI Realtime API), dedykowanego agenta głosowego (Vapi), czy kombinacji usług do transkrypcji i syntezy. 4. Skill doradzi Ci, którą kombinację dostawców wybrać na podstawie wymagań latencji i jakości audio. 5. Postępuj zgodnie z kodem i wzorcami dostarczonymi przez skill – rozpocznij od najprostszego scenariusza (np. sesja WebSocket z OpenAI Realtime), a następnie dodawaj złożoność (obsługa audio, optymalizacja opóźnień). 6. Testuj latencję i jakość głosu w każdym kroku, polegając na wiedzy skilla o budżetach latencji i best practices dla aplikacji produkcyjnych.