A
axiom-ios-ml
Use when deploying ANY machine learning model on-device, converting models to CoreML, compressing models, or implementing speech-to-text. Covers CoreML conversion, MLTensor, model compression (quantization/palettization/pruning), stateful models, KV-cache, multi-function models,
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Use when deploying ANY machine learning model on-device, converting models to CoreML, compressing models, or implementing speech-to-text. Covers CoreML conversion, MLTensor, model compression (quantization/palettization/pruning), stateful models, KV-cache, multi-function models, async prediction, SpeechAnalyzer, SpeechTranscriber.
How to use
- Aktywuj umiejętność axiom-ios-ml w swoim projekcie iOS, gdy planujesz wdrożyć własny model uczenia maszynowego na urządzeniu — nie używaj jej do korzystania z Apple Intelligence czy Foundation Models (do tego służy ios-ai).
- Jeśli masz model w PyTorch lub TensorFlow, użyj routera CoreML do konwersji modelu do formatu CoreML, który iOS rozumie natywnie.
- Jeśli model jest duży, zastosuj kompresję — wybierz odpowiednią strategię: kwantyzację (zmniejszenie precyzji), paletyzację (zmniejszenie unikalnych wartości) lub przycinanie (usuwanie nieistotnych połączeń).
- Dla dużych modeli językowych skonfiguruj KV-cache, aby przyspieszyć predykcje, oraz użyj MLTensor do łączenia modeli w potoku przetwarzania.
- Jeśli implementujesz zamianę mowy na tekst, skorzystaj z SpeechAnalyzer i SpeechTranscriber — umiejętność pokrywa zarówno nagrania na żywo, jak i wcześniej zarejestrowane pliki audio.
- Testuj predykcje asynchronicznie, aby nie blokowały interfejsu użytkownika — umiejętność zawiera wzorce do asynchronicznego wywoływania modelu na wybranej jednostce obliczeniowej (CPU, GPU lub Neural Engine).