rag-implementation
Build Retrieval-Augmented Generation (RAG) systems for LLM applications with vector databases and semantic search. Use when implementing knowledge-grounded AI, building document Qu0026A systems, or integrating LLMs with external knowledge bases.
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Build Retrieval-Augmented Generation (RAG) systems for LLM applications with vector databases and semantic search. Use when implementing knowledge-grounded AI, building document Qu0026A systems, or integrating LLMs with external knowledge bases.
How to use
Wybierz bazę wektorową dostosowaną do Twoich potrzeb: Pinecone dla zarządzanego rozwiązania, Weaviate dla hybrydowego wyszukiwania, Milvus dla wdrożenia on-premise, Chroma dla lekkiego prototypu, Qdrant dla filtrowanego wyszukiwania lub FAISS dla lokalnego wdrożenia.
Wybierz model do generowania embeddings — text-embedding-ada-002 od OpenAI do zastosowań ogólnych, all-MiniLM-L6-v2 dla szybkości, e5-large-v2 dla wysokiej jakości i wielojęzyczności, lub bge-large-en-v1.5 dla najlepszej wydajności.
Przygotuj dokumenty i przekonwertuj je na wektory za pomocą wybranego modelu embeddings, a następnie załaduj do bazy wektorowej.
Implementuj strategię wyszukiwania — użyj dense retrieval dla podobieństwa semantycznego, sparse retrieval dla dopasowania słów kluczowych, hybrid search do połączenia obu podejść, multi-query do generowania wariantów zapytania lub HyDE do generowania hipotetycznych dokumentów.
Dodaj reranking do poprawy jakości wyników — zastosuj cross-encoders lub inne metody rerankerów, aby przenieść najistotniejsze dokumenty na początek listy.
Zintegruj wyniki wyszukiwania z dużym modelem językowym, aby generować odpowiedzi ugruntowane w pobranej wiedzy, zmniejszając halucynacje i zapewniając cytowanie źródeł.