Toolverse
All skills

zarr-python

by davila7

Chunked N-D arrays for cloud storage. Compressed arrays, parallel I/O, S3/GCS integration, NumPy/Dask/Xarray compatible, for large-scale scientific computing pipelines.

Installation

Pick a client and clone the repository into its skills directory.

Installation

Quick info

Author
davila7
Category
DevOps

About this skill

Chunked N-D arrays for cloud storage. Compressed arrays, parallel I/O, S3/GCS integration, NumPy/Dask/Xarray compatible, for large-scale scientific computing pipelines.

How to use

  1. Zainstaluj Zarr za pomocą menadżera pakietów: uruchom uv pip install zarr w terminalu. Wymaga Python 3.11 lub nowszej wersji. Jeśli planujesz pracę z chmurą, zainstaluj dodatkowo uv pip install s3fs dla Amazon S3 lub uv pip install gcsfs dla Google Cloud Storage.

  2. Utwórz nową tablicę wielowymiarową, definiując jej rozmiar, rozmiar chunków i typ danych. Na przykład: zarr.create_array(store="data/my_array.zarr", shape=(10000, 10000), chunks=(1000, 1000), dtype="f4"). Chunki to części tablicy przechowywane osobno, co umożliwia równoległy dostęp i efektywne wykorzystanie pamięci.

  3. Wpisz dane do tablicy, korzystając ze składni indeksowania NumPy: z[:, :] = np.random.random((10000, 10000)). Zarr automatycznie obsługuje kompresję i podział na chunki.

  4. Odczytaj dane z tablicy, wybierając interesujący Cię fragment: data = z[0:100, 0:100]. Zwrócona wartość to tablica NumPy, którą możesz dalej przetwarzać.

  5. Aby pracować z istniejącą tablicą, otwórz ją za pomocą zarr.open_array('data.zarr', mode='r+') dla trybu odczytu-zapisu lub mode='r' dla trybu tylko do odczytu. Funkcja zarr.open() automatycznie rozpoznaje, czy plik zawiera tablicę czy grupę tablic.

Related skills

docker-containerization

by openclaw

This skill should be used when containerizing applications with Docker, creating Dockerfiles, docker-compose configurations, or deploying containers to various platforms. Ideal for Next.js, React, Node.js applications requiring containerization for development, production, or

DevOps
1334

senior-data-engineer

by davila7

World-class data engineering skill for building scalable data pipelines, ETL/ELT systems, and data infrastructure. Expertise in Python, SQL, Spark, Airflow, dbt, Kafka, and modern data stack. Includes data modeling, pipeline orchestration, data quality, and DataOps. Use when

DevOps
1268

streamlit

by sverzijl

When working with Streamlit web apps, data dashboards, ML/AI app UIs, interactive Python visualizations, or building data science applications with Python

DevOps
49161

azure-devops-rest-api

by Tiberriver256

Guide for working with Azure DevOps REST APIs and OpenAPI specifications. Use this skill when implementing new Azure DevOps API integrations, exploring API capabilities, understanding request/response formats, or referencing the official OpenAPI specifications from the

DevOps
995

aws-solution-architect

by alirezarezvani

Design AWS architectures for startups using serverless patterns and IaC templates. Use when asked to design serverless architecture, create CloudFormation templates, optimize AWS costs, set up CI/CD pipelines, or migrate to AWS. Covers Lambda, API Gateway, DynamoDB, ECS, Aurora,

DevOps
1231

game-art

by davila7

Game art principles. Visual style selection, asset pipeline, animation workflow.

DevOps
1268