llamaindex
Data framework for building LLM applications with RAG. Specializes in document ingestion (300+ connectors), indexing, and querying. Features vector indices, query engines, agents, and multi-modal support. Use for document Qu0026A, chatbots, knowledge retrieval, or building RAG
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Data framework for building LLM applications with RAG. Specializes in document ingestion (300+ connectors), indexing, and querying. Features vector indices, query engines, agents, and multi-modal support. Use for document Qu0026A, chatbots, knowledge retrieval, or building RAG pipelines. Best for data-centric LLM applications.
How to use
Zainstaluj LlamaIndex za pomocą pip install llama-index. Jeśli chcesz minimalną instalację, użyj llama-index-core i dodaj konkretne integracje, takie jak llama-index-llms-openai oraz llama-index-embeddings-openai.
Przygotuj folder z dokumentami, które chcesz indeksować. Umieść pliki w katalogu data lub innym wybranym przez Ciebie folderze.
Załaduj dokumenty za pomocą SimpleDirectoryReader, wskazując ścieżkę do folderu. Funkcja load_data() wczyta wszystkie dostępne pliki.
Utwórz indeks wektorowy z załadowanych dokumentów, używając VectorStoreIndex.from_documents(). Ta operacja przygotuje Twoje dane do wyszukiwania semantycznego.
Stwórz silnik zapytań z indeksu, wywołując as_query_engine(). Będziesz mógł teraz zadawać pytania w języku naturalnym, a system zwróci odpowiedzi oparte na Twoich dokumentach.
Testuj zapytania, przekazując pytania do silnika. LlamaIndex automatycznie wyszuka odpowiednie fragmenty dokumentów i wygeneruje odpowiedź na podstawie modelu LLM.