databricks-migration-deep-dive
Execute comprehensive platform migrations to Databricks from legacy systems.\nUse when migrating from on-premises Hadoop, other cloud platforms,\nor legacy data warehouses to Databricks.\nTrigger with phrases like \
Installation
Pick a client and clone the repository into its skills directory.
Installation
About this skill
Execute comprehensive platform migrations to Databricks from legacy systems.\nUse when migrating from on-premises Hadoop, other cloud platforms,\nor legacy data warehouses to Databricks.\nTrigger with phrases like \
How to use
Zainstaluj skill w swoim środowisku Claude Code, Codex lub OpenClaw, upewniając się, że masz dostęp do narzędzi Read, Write, Edit i Bash z uprawnieniami databricks:*.
Przygotuj warunki wstępne: uzyskaj dostęp do systemów źródłowych i docelowych, włącz Unity Catalog w workspace'ie Databricks oraz udokumentuj bieżącą architekturę danych i zależności.
Uruchom skill frazą wyzwalającą taką jak "migrate to databricks", "hadoop migration", "snowflake to databricks" lub "legacy migration", aby zainicjować proces.
Wykonaj krok discovery and assessment — skill zinwentaryzuje wszystkie tabele źródłowe z metadanymi niezbędnymi do planowania migracji.
Wybierz wzorzec migracji odpowiedni dla Twojego źródła: dla Hive Metastore użyj SYNC/CTAS/DEEP CLONE (dni), dla Hadoopa lift-and-shift (6-12 miesięcy), dla Snowflake'a parallel run (3-6 miesięcy), dla Redshift'a unload do S3 (3-6 miesięcy), dla starszych systemów full rebuild (12-18 miesięcy).
Skill przeprowadzi konwersję schematów, migrację danych z walidacją, konwersję pipeline'ów ETL i zaplanuje cutover z procedurami rollback'u na wypadek problemów.