pinecone
Managed vector database for production AI applications. Fully managed, auto-scaling, with hybrid search (dense + sparse), metadata filtering, and namespaces. Low latency (u003c100ms p95). Use for production RAG, recommendation systems, or semantic search at scale. Best for
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Managed vector database for production AI applications. Fully managed, auto-scaling, with hybrid search (dense + sparse), metadata filtering, and namespaces. Low latency (u003c100ms p95). Use for production RAG, recommendation systems, or semantic search at scale. Best for serverless, managed infrastructure.
How to use
Zainstaluj bibliotekę klienta Pinecone za pomocą polecenia pip install pinecone-client w swoim środowisku Python.
Utwórz konto na Pinecone i uzyskaj klucz API, który będzie potrzebny do uwierzytelnienia.
Zainicjuj klienta Pinecone w swoim kodzie, przekazując klucz API. Następnie utwórz indeks, określając wymiar wektorów (musi odpowiadać wymiarowi embeddings, np. 1536 dla OpenAI), metrykę podobieństwa (cosine, euclidean lub dotproduct) oraz konfigurację serverless z wyborem chmury i regionu.
Połącz się z utworzonym indeksem i wgraj wektory za pomocą operacji upsert. Każdy wektor powinien mieć unikalny identyfikator, wartości numeryczne oraz opcjonalne metadane (np. kategorię lub inne atrybuty).
Wykonaj zapytania do indeksu, podając wektor zapytania, liczbę wyników (top_k) oraz flagę include_metadata, aby otrzymać metadane wraz z wynikami. Wyniki zwrócą dopasowane wektory posortowane według podobieństwa.
Integruj Pinecone z systemem RAG lub aplikacją rekomendacyjną, łącząc generowanie embeddings (np. z modelu AI) z wyszukiwaniem w bazie wektorów, aby uzyskać semantycznie podobne dokumenty lub rekomendacje.