cocoindex
Comprehensive toolkit for developing with the CocoIndex library. Use when users need to create data transformation pipelines (flows), write custom functions, or operate flows via CLI or API. Covers building ETL workflows for AI data processing, including embedding documents into
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Comprehensive toolkit for developing with the CocoIndex library. Use when users need to create data transformation pipelines (flows), write custom functions, or operate flows via CLI or API. Covers building ETL workflows for AI data processing, including embedding documents into vector databases, building knowledge graphs, creating search indexes, or processing data streams with incremental updates.
How to use
- Zainstaluj CocoIndex i upewnij się, że masz dostęp do dokumentacji na cocoindex.io/docs. 2. Zdefiniuj wymagania swojego potoku — określ źródło danych (pliki lokalne, S3, Azure Blob, Google Drive, Postgres), transformacje, które chcesz zastosować (chunking tekstu, embeddingi, ekstrakcja LLM), oraz cel eksportu (Postgres+pgvector, Qdrant, LanceDB, Neo4j, Kuzu). 3. Napisz przepływ w Pythonie, korzystając z wbudowanych funkcji CocoIndex do chunking'u, embedding'u i ekstrakcji danych strukturalnych. Możesz też tworzyć własne funkcje transformacji. 4. Uruchom przepływ za pomocą CLI lub Python API — CocoIndex automatycznie przetworzy dane i wyśle je do wybranego celu. 5. Skonfiguruj inkrementalne przetwarzanie, aby potok synchronizował tylko nowe lub zmienione dane ze źródła, zamiast przetwarzać wszystko od nowa. 6. Monitoruj i zarządzaj przepływem — możesz uruchamiać go ręcznie, planować aktualizacje live lub integrować z innymi narzędziami poprzez API.