ollama-setup
Configure auto-configure Ollama when user needs local LLM deployment, free AI alternatives,\nor wants to eliminate hosted API costs. Trigger phrases: \
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Configure auto-configure Ollama when user needs local LLM deployment, free AI alternatives,\nor wants to eliminate hosted API costs. Trigger phrases: \
How to use
Aktywuj umiejętność, gdy w kontekście rozmowy pojawią się słowa kluczowe: "install ollama", "local AI", "free LLM", "self-hosted AI", "replace OpenAI" lub "no API costs". Skill automatycznie się uruchomi, gdy rozpozna odpowiedni kontekst.
Upewnij się, że masz odpowiednie uprawnienia dostępu do plików oraz że wymagane zależności są zainstalowane na Twoim systemie przed uruchomieniem konfiguracji.
Podaj niezbędny kontekst i parametry dotyczące Twojego środowiska — informacje o systemie operacyjnym, dostępnych zasobach sprzętowych oraz preferowanym modelu AI, który chcesz uruchomić lokalnie.
Przejrzyj wygenerowane dane wyjściowe ze skryptu konfiguracyjnego i sprawdź, czy wszystkie kroki zostały wykonane poprawnie.
W razie błędów lub problemów zapoznaj się z dokumentacją obsługi błędów dostępną w pliku
{baseDir}/references/errors.md, gdzie znajdziesz rozwiązania dla typowych problemów.Po pomyślnej konfiguracji możesz dostosować ustawienia zgodnie ze swoimi potrzebami — zmienić model, parametry wydajności lub ścieżki dostępu do danych.