chromadb-memory
Long-term memory via ChromaDB with local Ollama embeddings. Auto-recall injects relevant context every turn. No cloud APIs required — fully self-hosted.
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Long-term memory via ChromaDB with local Ollama embeddings. Auto-recall injects relevant context every turn. No cloud APIs required — fully self-hosted.
How to use
Zainstaluj wymagane narzędzia: uruchom ChromaDB w Dockerze komendą
docker run -d --name chromadb -p 8100:8000 chromadb/chroma:latest, a następnie pobierz model osadzający do Ollamy:ollama pull nomic-embed-text.Przygotuj dane — zaindeksuj dokumenty lub rozmowy w kolekcji ChromaDB za pomocą dowolnego narzędzia kompatybilnego z ChromaDB. Skill będzie wyszukiwać w tej kolekcji.
Skopiuj pliki skill'u do katalogu rozszerzeń OpenClaw: utwórz folder
~/.openclaw/extensions/chromadb-memory/i umieść w nimindex.tsorazopenclaw.plugin.jsonz repozytorium.Skonfiguruj skill w pliku
~/.openclaw/openclaw.json, dodając wpis w sekcjiplugins.entries. UstawchromaUrlnahttp://localhost:8100,ollamaUrlnahttp://localhost:11434,collectionNamena nazwę Twojej kolekcji orazembeddingModelnanomic-embed-text. WłączautoRecall: true, aby kontekst wstrzykiwał się automatycznie.Dostosuj parametry:
autoRecallResultsokreśla, ile wyników wyszukiwania wstrzyknąć (domyślnie 3), aminScoreustawia próg podobieństwa (domyślnie 0,5) — zwiększ próg, jeśli otrzymujesz zbyt wiele nieistotnych wyników.Uruchom agenta — skill będzie teraz automatycznie wyszukiwać w ChromaDB przed każdą turą. Możesz też ręcznie wyszukiwać za pomocą narzędzia
chromadb_search, jeśli potrzebujesz precyzyjnej kontroli.