주요 컨텐츠로 이동

Data Management and Governance with Unity Catalog - Korean

**중요 공지:**: 본 과정은 2025년 12월 12일에 종료됩니다.
Databricks는 2025년 12월 11일까지 수료할 것을 권장합니다. 또는 학습 요구에 따라 다음 대체 과정 중 하나에 등록할 수 있습니다:

  • Databricks에서 데이터 거버넌스 시작하기 – Unity Catalog 및 세분화된 접근 제어 등 기초적인 데이터 거버넌스 개념을 학습합니다.

  • 데이터 엔지니어링을 위한 DevOps 필수 사항 – Databricks에서 필수적인 DevOps 원칙과 실무를 통해 데이터 엔지니어링 학습 여정을 계속하세요.

Databricks Academy Lab 구독자라면 고객 아카데미의 Databricks Academy Labs 카탈로그에서 제공되는 해당 모듈의 자율 학습 버전으로 등록할 수 있습니다.



데이터 엔지니어의 관점에서 Databricks Data Intelligence Platform에 대해 소개합니다.

이 과정에서는 데이터 거버넌스 및 Databricks Unity Catalog를 사용한 관리에 대해 학습합니다. 데이터 거버넌스의 기본 개념부터 시작하여 데이터 레이크 관리의 복잡성과 과제, Unity Catalog의 주요 기능을 강조합니다. 그런 다음 메타스토어, 스키마, 테이블 및 외부 스토리지 액세스와 같은 주요 개념을 강조하면서 Unity Catalog의 아키텍처를 자세히 살펴봅니다. 보안 및 관리도 철저히 다루며 Databricks 역할, ID 관리, 보안 모델에 대해 자세히 설명합니다. 고급 주제에는 세분화된 액세스 제어 및 권한 관리가 포함되어 있어 학습자는 Unity Catalog에서 강력한 데이터 거버넌스 및 보안 조치를 구현할 수 있는 기술을 갖추게 됩니다. 이 과정에는 이론 지식을 강화하기 위한 실습 데모와 실습이 포함되어 있습니다.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
3h
Prerequisites
  • 클라우드 컴퓨팅 개념(가상 머신, 개체 스토리지 등)에 익숙하지 않은 초급 사용자
  • SQL 명령, 집계 함수, 필터 및 정렬, 인덱스, 테이블 및 뷰와 같은 기본 SQL 개념에 대한 중급 수준의 경험.
  • Python 프로그래밍, jupyter 노트북 인터페이스 및 PySpark 기초에 대한 기본 지식.

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Build Data Pipelines with Lakeflow Declarative Pipelines - Korean

이 과정에서는 여러 스트리밍 테이블과 구체화된 보기를 통한 증분 배치 또는 스트리밍 수집 및 처리를 위해 Databricks의 Lakeflow 선언적 파이프라인를 사용하여 데이터 파이프라인을 구축하는 데 필요한 필수 개념과 기술을 사용자에게 소개합니다. Lakeflow 선언적 파이프라인를 처음 접하는 데이터 엔지니어를 위해 설계된 이 과정은 증분 데이터 처리, 스트리밍 테이블, 구체화된 보기 및 임시 보기와 같은 핵심 구성 요소에 대한 포괄적인 개요를 제공하고 구체적인 목적과 차이점을 강조합니다.

다루는 주제는 다음과 같습니다.

- SQL을 사용하여 Lakeflow의 다중 파일 편집기로 ETL 파이프라인 개발 및 디버깅 (Python 코드 예제 제공)

- Lakeflow 선언적 파이프라인이 파이프라인 그래프

를 통해 파이프라인의 데이터 종속성을 추적하는 방법- 파이프라인 컴퓨팅 리소스, 데이터 자산, 트리거 모드 및 기타 고급 옵션

 구성 다음으로, 이 과정에서는 Lakeflow의 데이터 품질 기대치를 소개하고, 데이터 무결성을 검증하고 적용하기 위해 기대치를 파이프라인에 통합하는 프로세스를 안내합니다. 그런 다음 학습자는 스케줄링 옵션, 프로덕션 모드, 파이프라인 이벤트 로깅을 활성화하여 파이프라인 성능 및 상태를 모니터링하는 등 파이프라인을 프로덕션에 적용하는 방법을 살펴봅니다.

마지막으로, 이 과정에서는 Lakeflow Declarative Pipelines 내에서 APPLY CHANGES INTO 구문을 사용하여 Change Data Capture  (CDC)를 구현하여 느리게 변화하는 차원(SCD 유형 1 및 유형 2)을 관리하여 사용자가 CDC를 자신의 파이프라인에 통합할 수 있도록 준비하는 방법을 다룹니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid & Subscription
4h
Lab
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.