주요 컨텐츠로 이동

Automated Deployment with Databricks Asset Bundles - Korean

이 과정에서는 DevOps 원칙과 이를 Databricks 프로젝트에 적용하는 방법을 포괄적으로 살펴봅니다. 이 과정은 핵심 DevOps, DataOps, continuous integration (CI), continuous deployment (CD) 및 테스트에 대한 개요부터 시작하여 이러한 원칙을 데이터 엔지니어링 파이프라인에 어떻게 적용할 수 있는지 알아봅니다.


그런 다음 이 과정은 CI/CD 프로세스 내에서 지속적 배포에 초점을 맞추고 프로젝트 배포를 위한 Databricks REST API, SDK, CLI와 같은 도구를 살펴봅니다. Databricks Asset Bundles (DAB)에 대해 알아보고 이것이 CI/CD 프로세스에 어떻게 적용되는지 알아보겠습니다. Databricks Asset Bundles의 핵심 구성 요소, 폴더 구조 및 이를 통해 다양한 대상 환경에서 배포를 간소화하는 방법에 대해 자세히 알아보겠습니다. 또한 Databricks CLI를 사용하여 다양한 구성의 여러 환경에서 Databricks Asset Bundles를 변수 추가, 수정, 검증, 배포 및 실행하는 방법도 알아봅니다.


마지막으로, 이 과정에서는 Databricks Asset Bundles를 로컬에서 빌드, 테스트 및 배포하여 개발 프로세스를 최적화하기 위한 대화형 개발 환경(IDE)인 Visual Studio Code를 소개합니다. 이 과정은 Databricks Asset Bundles를 사용하여 CI/CD 워크플로를 개선하기 위해 GitHub Actions를 사용하여 배포 파이프라인을 자동화하는 방법을 소개하면서 마무리됩니다.


이 과정을 마치면 Databricks Asset Bundles를 사용하여 Databricks 프로젝트 배포를 자동화하고 DevOps 방식을 통해 효율성을 개선할 수 있습니다.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Professional
Duration
4h
Prerequisites
  • Databricks Workspaces, Apache Spark, Delta Lake, 메달리온 아키텍처, Unity Catalog, Delta Live Tables, Workflows를 포함한 Databricks 플랫폼에 대한 강력한 지식. 특히, Delta Live Table을 통한 Expectations 활용에 대한 지식이 필요합니다. 
  • PySpark를 사용하여 데이터 처리 및 DataFrame 조작에 능숙하며, 데이터 수집 및 변환에 대한 경험이 있습니다. 지원자는 또한 데이터 분석 및 변환을 위한 중간 복잡도의 SQL 쿼리를 작성한 경험이 있어야 합니다.
  • 함수 및 클래스를 설계하고 구현하는 능력과 Python 패키지를 만들고, 가져오고, 활용하는 경험을 포함한 Python 프로그래밍에 대한 능숙함.
  • DevOps 방법론, 특히 Continuous Integration 및 Continuous Deployment (CI/CD) 원칙에 대한 친숙함.
  • Git 버전 제어에 대한 기본적인 이해.
  • 선행 과목 데이터 엔지니어링을 위한 DevOps 필수 과목

Outline

DevOps 및 CI/CD 검토

  • DevOps 리뷰
  • 지속적인 통합 및 지속적인 배포/전달 (CI/CD) 검토
  • 강좌 설정 및 인증


함께 배포 데이터브릭스 자산 번들들(DABs)

  • 배포하는 Databricks 프로젝트
  • 에 대한 소개 데이터브릭스 자산 번들(DAB)
  • 간단한 DAB 배포 
  • 간단한 DAB 배포
  • DAB에서의 변수 대체
  • DAB를 ~에 배포하기 다양한 환경
  • 여러 환경에 DAB 배포
  • DAB 프로젝트 템플릿 개요
  • Databricks 기본 DAB 템플릿 사용
  • DAB를 사용한 CI/CD 프로젝트 개요
  • 지속적인 통합 및 지속적인 DAB를 사용한 배포
  • ML을 추가 DAB를 사용한 엔지니어링 워크플로


더 많이 활용하기 데이터브릭스 자산 번들

  • 로컬에서 Visual Studio Code를 사용하여 개발 (VS코드)
  • VSCode를 함께 사용하여 데이터브릭스
  • 데이터 엔지니어링을 위한 CI/CD 모범 사례
  • 다음 단계: GitHub Actions를 사용한 자동 배포

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

DevOps Essentials for Data Engineering - Korean

이 과정에서는 Databricks를 사용하여 작업하는 데이터 엔지니어를 위해 특별히 설계된 소프트웨어 엔지니어링 모범 사례와 DevOps 원칙을 살펴봅니다. 참가자는 코드 품질, 버전 제어, 문서화, 테스트와 같은 핵심 주제에 대한 강력한 기반을 구축하게 됩니다. 이 과정에서는 DevOps를 강조하여 핵심 구성 요소, 이점, 데이터 엔지니어링 워크플로 최적화에서 지속적인 통합 및 배포(CI/CD)의 역할에 대해 다룹니다.

PySpark에서 모듈성 원칙을 적용하여 재사용 가능한 구성 요소를 만들고 효율적으로 코드를 구성하는 방법을 학습합니다. 실습 경험에는 pytest 프레임워크를 사용하여 PySpark 함수에 대한 단위 테스트를 설계하고 구현하는 것과 DLT 및 Workflows를 사용하여 Databricks 데이터 파이프라인에 대한 통합 테스트를 수행하여 안정성을 보장하는 것이 포함됩니다.

또한 이 과정에서는 Databricks Git 폴더를 사용하여 지속적인 통합 관행을 통합하는 것을 포함하여 Databricks 내에서 필수적인 Git 작업도 다룹니다. 마지막으로 REST API, CLI, SDK, Databricks Asset Bundles(DAB) 등 Databricks 자산에 대한 다양한 배포 방법을 간략하게 살펴보고 파이프라인을 배포하고 관리하는 기술에 대한 지식을 얻습니다.

과정을 마치면 소프트웨어 엔지니어링과 DevOps 모범 사례에 능숙해져서 확장 가능하고 유지 관리가 가능하며 효율적인 데이터 엔지니어링 솔루션을 구축할 수 있게 됩니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
Associate
Generative AI Engineer

Generative AI Engineering with Databricks - Korean

이 과정은 Data Scientists, 머신러닝 엔지니어 및 가장 인기 있는 최신 프레임워크와 Databricks 기능을 사용하여 제너레이티브 AI 애플리케이션을 구축하려는 기타 데이터 실무자를 대상으로 합니다. 

아래에서는 이 과정에 포함된 4시간짜리 4개의 모듈에 대해 각각 설명합니다.

Generative AI Solution Development: 검색 증강 생성(RAG) 방식을 사용하는 문맥 생성 AI 솔루션에 대해 소개합니다. 먼저 RAG 아키텍처와 Mosaic AI Playground를 사용한 문맥 정보의 중요성에 대해 소개합니다. 다음으로, 생성형 AI 솔루션을 위해 데이터를 준비하는 방법과 이 과정을 RAG 아키텍처 구축과 연결하는 방법을 보여드립니다. 마지막으로 컨텍스트 임베딩, 벡터, 벡터 데이터베이스, Mosaic AI Vector Search의 활용과 관련된 개념을 살펴봅니다.

Generative AI Application Development: 다단계 추론 LLM 체인과 에이전트를 사용해 고급 LLM 애플리케이션을 구축하는 데 필요한 정보와 실무 경험을 쌓을 준비가 되셨나요? 이 모듈에서는 먼저 문제를 구성 요소로 분해하고 각 단계에 가장 적합한 모델을 선택해 비즈니스 사용 사례를 개선하는 방법을 배웁니다. 그 다음에는 LangChain과 HuggingFace 트랜스포머를 활용해 다단계 추론 체인을 구축하는 방법을 보여드리겠습니다. 마지막으로 에이전트를 소개하고 Databricks에서 생성 모델을 사용해 자율 에이전트를 설계합니다.

Generative AI Application Evaluation and Governance: 제너레이티브 AI 시스템 평가 및 거버넌스에 대한 소개입니다. 먼저 평가 및 거버넌스/보안 시스템 구축의 의미와 동기를 살펴봅니다. 다음으로, 평가 및 거버넌스 시스템을 Databricks Data Intelligence Platform에 연결합니다. 셋째, 특정 구성 요소와 애플리케이션 유형에 대한 다양한 평가 기법에 대해 알려드립니다. 마지막으로, 성능과 비용 측면에서 전체 AI 시스템을 평가하는 분석으로 과정을 마무리합니다.

Generative AI Application Deployment and Monitoring: 제너레이티브 AI 애플리케이션을 배포, 운영, 모니터링하는 방법을 배울 준비가 되셨나요? 이 모듈에서는 Model Serving과 같은 도구를 사용하여 제너레이티브 AI 애플리케이션을 배포하는 기술을 습득할 수 있습니다. 또한 모범 사례와 권장 아키텍처에 따라 제너레이티브 AI 애플리케이션을 운영하는 방법도 다룹니다. 마지막으로 Lakehouse Monitoring을 사용하여 제너레이티브 AI 애플리케이션과 그 구성 요소를 모니터링하는 방법에 대해 설명합니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
16h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.