주요 컨텐츠로 이동

Data Engineering with Databricks - Korean

이 과정은 Databricks를 활용한 데이터 엔지니어링 학습을 위한 적절한 입문 과정입니다.
아래에서는 본 과정에 포함된 4개의 4시간 모듈을 각각 설명합니다.

 

1. Lakeflow Connect를 활용한 데이터 인제스트

본 과정은 다양한 데이터 소스에서 Databricks로 데이터를 인제스트하기 위한 확장 가능하고 간소화된 솔루션인 Lakeflow Connect에 대한 포괄적인 소개를 제공합니다. Lakeflow Connect 내의 다양한 커넥터 유형(표준 및 관리형)을 살펴보고, 배치, 증분 배치, 스트리밍 등 다양한 인제스트 기법을 학습한 후, 델타 테이블과 메달리온 아키텍처의 주요 이점을 검토하게 됩니다.

 

이후 CREATE TABLE AS(CTAS), COPY INTO, Auto Loader 등의 방법을 활용하여 Lakeflow Connect 표준 커넥터로 클라우드 객체 저장소에서 데이터를 효율적으로 수집하는 실무 기술을 습득하고, 각 접근 방식의 장점과 고려 사항을 알아봅니다. Databricks 데이터 인텔리전스 플랫폼으로 데이터를 인제스트할 때 브론즈 레벨 테이블에 메타데이터 컬럼을 추가하는 방법을 학습합니다. 이어서 브론즈 테이블 스키마와 일치하지 않는 레코드를 처리하는 ‘구출된 데이터(rescued data)’ 컬럼을 다루며, 이 구출된 데이터를 관리하는 전략을 익힙니다.

 

본 과정에서는 반구조화 JSON 데이터의 인제스트 및 플랫닝 기법과 Lakeflow Connect 관리형 커넥터를 활용한 엔터프라이즈급 데이터 인제스트 기술도 소개합니다.

 

마지막으로 학습자는 MERGE INTO 작업 및 Databricks Marketplace 활용을 포함한 대체 인제스트 전략을 탐구하며, 현대적인 데이터 엔지니어링 인제스트를 지원하기 위한 기초 지식을 습득하게 됩니다

 

2. Lakeflow Jobs를 통한 워크로드 배포

Lakeflow Jobs를 활용한 워크로드 배포 과정에서는 Lakeflow Jobs를 사용하여 데이터, 분석 및 AI 워크플로를 오케스트레이션하고 자동화하는 방법을 가르칩니다. 유연한 스케줄링, 고급 오케스트레이션, 안정성과 효율성을 위한 모범 사례를 통해 Databricks 데이터 인텔리전스 플랫폼 내에서 원활하게 통합된 견고하고 생산 환경에 적합한 파이프라인을 구축하는 방법을 배우게 됩니다. Databricks, Python 및 SQL에 대한 사전 경험이 권장됩니다.

 

3. Lakeflow Spark Declarative Pipelines을 활용한 데이터 파이프라인 구축

이 과정은 Databricks의 Lakeflow Spark Declarative Pipelines을 사용하여 증분 배치 또는 스트리밍 수집 및 처리를 위해 여러 스트리밍 테이블과 구체화된 뷰를 통해 데이터 파이프라인을 구축하는 데 필요한 핵심 개념과 기술을 소개합니다. Spark Declarative Pipelines을 처음 접하는 데이터 엔지니어를 위해 설계된 이 과정은 증분 데이터 처리, 스트리밍 테이블, 구체화된 뷰, 임시 뷰와 같은 핵심 구성 요소에 대한 포괄적인 개요를 제공하며, 각각의 특정 목적과 차이점을 강조합니다.


다루는 주제는 다음과 같습니다:

- SQL을 사용한 Spark Declarative Pipelines의 다중 파일 편집기로 ETL 파이프라인 개발 및 디버깅 (Python 코드 예제 제공)

- 파이프라인 그래프를 통해 Spark Declarative Pipelines이 파이프라인 내 데이터 종속성을 추적하는 방법

- 파이프라인 compute 리소스, 데이터 자산, 트리거 모드 및 기타 고급 옵션 구성


이어서 본 과정은 Spark Declarative Pipelines에서의 데이터 품질 기대치를 소개하며, 데이터 무결성을 검증하고 강제하기 위해 이러한 기대치를 파이프라인에 통합하는 과정을 안내합니다. 학습자는 스케줄링 옵션 포함 파이프라인을 프로덕션 환경에 배포하는 방법과 파이프라인 성능 및 상태 모니터링을 위한 이벤트 로깅 활성화 방법을 탐구하게 됩니다.


마지막으로, 본 과정은 Spark Declarative Pipelines 내에서 AUTO CDC INTO 구문을 사용하여 변경 데이터 캡처(CDC)를 구현하는 방법을 다루며, 이를 통해 느리게 변경되는 차원(SCD Type 1 및 Type 2)을 관리하고 사용자가 자신의 파이프라인에 CDC를 통합할 수 있도록 준비시킵니다.

 

4. 데이터 엔지니어링을 위한 DevOps 기본

이 과정에서는 Databricks를 사용하여 작업하는 데이터 엔지니어를 위해 특별히 설계된 소프트웨어 엔지니어링 모범 사례와 DevOps 원칙을 살펴봅니다. 참가자는 코드 품질, 버전 제어, 문서화, 테스트와 같은 핵심 주제에 대한 강력한 기반을 구축하게 됩니다. 이 과정에서는 DevOps를 강조하여 핵심 구성 요소, 이점, 데이터 엔지니어링 워크플로 최적화에서 지속적인 통합 및 배포(CI/CD)의 역할에 대해 다룹니다.


PySpark에서 모듈성 원칙을 적용하여 재사용 가능한 구성 요소를 만들고 효율적으로 코드를 구성하는 방법을 학습합니다. 실습 경험에는 pytest 프레임워크를 사용하여 PySpark 함수에 대한 단위 테스트를 설계하고 구현하는 것과 DLT 및 Workflows를 사용하여 Databricks 데이터 파이프라인에 대한 통합 테스트를 수행하여 안정성을 보장하는 것이 포함됩니다.


또한 이 과정에서는 Databricks Git 폴더를 사용하여 지속적인 통합 관행을 통합하는 것을 포함하여 Databricks 내에서 필수적인 Git 작업도 다룹니다. 마지막으로 REST API, CLI, SDK, Databricks Asset Bundles(DAB) 등 Databricks 자산에 대한 다양한 배포 방법을 간략하게 살펴보고 파이프라인을 배포하고 관리하는 기술에 대한 지식을 얻습니다.


과정을 마치면 소프트웨어 엔지니어링과 DevOps 모범 사례에 능숙해져서 확장 가능하고 유지 관리가 가능하며 효율적인 데이터 엔지니어링 솔루션을 구축할 수 있게 됩니다.


Languages Available: English | 日本語 | Português BR | 한국어 | Español | française

Skill Level
Associate
Duration
16h
Prerequisites

1. Lakeflow Connect를 활용한 데이터 인제스트

⇾ Databricks 데이터 인텔리전스 플랫폼(Databricks Workspaces, Apache Spark, Delta Lake, 메달리온 아키텍처, Unity Catalog 포함)에 대한 기본 이해.

⇾ 다양한 파일 형식(예: Parquet, CSV, JSON, TXT) 작업 경험.

⇾ SQL 및 Python에 능숙함.

⇾ Databricks 노트북에서 코드 실행에 익숙함.

 

2. Lakeflow Jobs를 통한 워크로드 배포

⇾ 클라우드 기본 개념(가상 머신, 객체 저장소, 신원 관리)에 대한 초보자 수준의 이해

⇾ 기본 코드 개발 작업 수행 능력(컴퓨팅 인스턴스 생성, 노트북에서 코드 실행, 기본 노트북 작업 사용, git에서 저장소 가져오기 등)

⇾ 기본 SQL 개념에 대한 중급 수준의 이해도 (CREATE, SELECT, INSERT, UPDATE, DELETE, WHILE, GROUP BY, JOIN 등)

 

3. Lakeflow Spark Declarative Pipelines을 활용한 데이터 파이프라인 구축

⇾ Databricks Data Intelligence platform에 대한 기본 이해(Databricks Workspaces, Apache Spark, Delta Lake, 메달리온 아키텍처, Unity Catalog 포함).

⇾ CSV, JSON, TXT, Parquet 등의 형식을 로드하기 위해 read_files SQL 함수를 사용하는 등 원시 데이터를 Delta 테이블로 가져오는 경험.

⇾ SQL을 사용한 데이터 변환 숙련도(중급 수준의 쿼리 작성 및 SQL 조인에 대한 기본 이해 포함).

 

4. 데이터 엔지니어링을 위한 DevOps 기본

⇾ Databricks Workspaces, Apache Spark, Delta Lake 및 Medallion Architecture, Unity Catalog, Delta Live Tables, Workflows를 포함한 

Databricks 플랫폼에 대한 능숙한 지식. Git 버전 제어에 대한 기본적인 이해도 필요합니다.

⇾ 데이터 수집 및 변환 경험, 데이터 처리 및 DataFrame 조작을 위한 PySpark에 대한 능숙함이 필요합니다. 또한 지원자는 데이터 분석 및 변환을 위한 중급 수준의 SQL 쿼리를 작성한 경험이 있어야 합니다.

⇾ Python 프로그래밍에 대한 지식이 있어야 하며, 함수와 클래스를 설계하고 구현하는 능력을 포함하여 중급 수준의 Python 코드를 작성하는 데 능숙해야 합니다. 사용자는 또한 Python 패키지를 만들고, 가져오고, 효과적으로 활용하는 데 능숙해야 합니다.

Outline

1. Lakeflow Connect를 활용한 데이터 인제스트

⇾ Databricks 데이터 엔지니어링 입문

⇾ LakeFlow Connect 표준 커넥터를 활용한 클라우드 스토리지 데이터 수집

⇾ LakeFlow Connect 관리형 커넥터를 활용한 엔터프라이즈 데이터 수집

⇾ 데이터 수집 대안

 

2. Lakeflow Jobs를 통한 워크로드 배포

⇾ Databricks 데이터 엔지니어링 입문

⇾ Lakeflow 작업 핵심 개념

⇾ 작업 생성 및 스케줄링

⇾ 고급 Lakeflow 작업 기능

 

3. Lakeflow Spark Declarative Pipelines으로 데이터 파이프라인 구축하기

⇾ Databricks에서의 데이터 엔지니어링 소개

⇾ Lakeflow Spark Declarative Pipelines 기초

⇾ Lakeflow Spark Declarative Pipelines 구축하기

 

4. 데이터 엔지니어링을 위한 DevOps 기본

소프트웨어 엔지니어링, DevOps 및 CI/CD 기본 사항

⇾ 소프트웨어 엔지니어링(SWE) 모범 사례 소개

⇾ 에 대한 소개 PySpark 코드 모듈화

⇾ PySpark 코드 모듈화 - 필수

⇾ PySpark 모듈화 코드

⇾ DevOps 기초 

⇾ CI/CD에서의 역할 DevOps

⇾ 지식 확인/토론


Continuous Integration (CI)

⇾ 프로젝트 계획 

⇾ 프로젝트 설정 탐색(필수)

⇾ PySpark를 위한 단위 테스트 소개

⇾ 단위 테스트 생성 및 실행

⇾ 단위 테스트 생성 및 실행

⇾ 통합 실행 DLT를 사용한 테스트 및 Workflows

⇾ DLT를 사용하여 통합 테스트 수행 그리고 Workflows

⇾ Git을 사용한 버전 제어 개요

⇾ 버전 제어와 Databricks Git 폴더 및 GitHub


Continuous Deployment 소개

⇾ Databricks 자산 배포 개요(슬라이드)
⇾ Databricks 프로젝트 배포

⇾ 다음 단계 

Upcoming Public Classes

Date
Time
Your Local Time
Language
Price
Jun 08 - 09
09 AM - 05 PM (Asia/Seoul)
-
Korean
$1500.00
Jun 30 - Jul 01
09 AM - 05 PM (Asia/Seoul)
-
Korean
$1500.00
Jul 23 - 24
09 AM - 05 PM (Asia/Seoul)
-
Korean
$1500.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

지금 등록하세요

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

지금 등록하세요

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Machine Learning Practitioner

Machine Learning with Databricks - Korean

'Databricks를 활용한 머신러닝' 과정에 오신 것을 환영합니다!

이 과정은 Databricks 환경에서 머신러닝 워크플로를 완벽하게 마스터하기 위한 여러분의 입문서가 되어 줄 것입니다. 전문 강사진의 지도 아래 데이터 준비, 모델 개발, 배포 및 운영에 이르는 전 과정을 깊이 있게 탐구해 보세요. Databricks에 최적화된 데이터 탐색, 모델 훈련, 그리고 배포 전략에 필요한 핵심 기술을 습득하게 됩니다. 과정을 마치면 Databricks platform 내에서 전체 머신러닝 수명 주기를 주도적으로 관리할 수 있는 지식과 자신감을 갖추게 되며, 이를 바탕으로 견고한 머신러닝 솔루션을 효율적으로 구축하고 배포할 수 있게 될 것입니다.

 

머신러닝을 위한 데이터 준비

이 과정은 Databricks를 활용하여 머신러닝용 데이터를 준비하는 데 필요한 기초 지식에 중점을 둡니다. 참가자들은 전통적인 머신러닝 애플리케이션에 맞춰 데이터를 탐색, 정제 및 조직화하는 데 필요한 핵심 기술을 배우게 됩니다. 주요 주제로는 데이터 시각화, 특성 엔지니어링, 그리고 최적의 피처 저장 전략 등이 포함됩니다. 실습 과제를 통해 참가자들은 Databricks 환경 내에서 머신러닝용 데이터 세트를 효율적으로 준비하는 실무 경험을 쌓게 됩니다. 이 과정은 주니어급 데이터 과학자 및 머신러닝 실무자, 그리고 데이터 준비 역량을 강화하여 성공적인 머신러닝 모델 배포를 위한 탄탄한 기초를 다지고자 하는 분들을 위해 설계되었습니다.

 

머신러닝 모델 개발

이 종합 과정은 Databricks 환경에서 전통적인 머신러닝 모델을 개발하기 위한 실용적인 가이드를 제공하며, 널리 사용되는 ML 라이브러리를 활용한 실습 시연과 워크플로에 중점을 둡니다. 참가자들은 Databricks의 강력한 기능을 활용하여 회귀(Regression) 및 군집화(Clustering)를 포함한 주요 ML 기법들을 탐구하게 됩니다. 과정 내용은 모델 추적을 위한 MLflow 연동, 피처 관리를 위한 Databricks 특성 저장소, 그리고 하이퍼파라미터 튜닝을 위한 Optuna 활용법 등을 포괄합니다. 또한, Databricks AutoML을 활용하여 모델 훈련 속도를 가속화하는 방법도 배우게 됩니다. 과정을 마치면 학습자들은 Databricks 환경에서 머신러닝 모델을 효율적으로 개발, 최적화 및 배포하는 데 필요한 실전적이고 실무 중심적인 기술을 갖추게 될 것입니다.

 

머신러닝 모델 배포

이 과정은 세 가지 주요 머신러닝 배포 전략을 소개하고, Databricks 환경에서 각 전략을 실제로 구현하는 방법을 보여주기 위해 설계되었습니다. 모델 배포의 기초 원리를 탐구한 후, 과정은 배치 추론(Batch Inference) 분야로 심층적으로 들어갑니다. 배치 추론 시나리오에서 모델을 활용하는 방법에 대한 실습 시연과 랩(Lab) 실습을 제공하며, 성능 최적화를 위한 고려 사항들도 함께 다룹니다. 과정의 두 번째 파트에서는 파이프라인 배포(Pipeline Deployment)에 대해 포괄적으로 다루며, 마지막 파트에서는 실시간 배포(Real-time Deployment)에 집중하여 학습을 진행합니다. 참가자들은 실습 시연 및 랩 세션에 참여하여, Model Serving을 활용해 모델을 배포하고 해당 서빙 엔드포인트를 이용해 실시간 추론을 수행하게 됩니다.

 

머신러닝 운영

본 과정은 MLOps 및 모델 수명 주기 관리에 중점을 두고, 머신러닝 모델 운영 전반을 심층적으로 탐구할 수 있도록 참가자들을 안내합니다. 과정의 초반부에서는 필수적인 MLOps 구성 요소와 모범 사례를 다루며, 참가자들이 머신러닝 모델을 효과적으로 운영 환경에 적용하는 데 필요한 탄탄한 기초를 다질 수 있도록 지원합니다. 후반부에서는 모델 수명 주기의 기본 원리를 상세히 살펴보고, Unity Catalog와 연계된 Model Registry를 활용하여 모델 수명 주기를 원활하게 관리하는 방법을 시연합니다. 과정을 마치게 되면, 참가자들은 MLOps 원리에 대한 실질적인 통찰력과 포괄적인 이해를 갖추게 되며, 복잡다단한 머신러닝 모델 운영 환경을 능숙하게 다룰 수 있는 역량을 확보하게 될 것입니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
16h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.