주요 컨텐츠로 이동

Data Preparation for Machine Learning - Korean

이 과정에서는 Databricks를 사용하여 머신러닝을 위한 데이터를 준비하는 기본 사항에 중점을 둡니다. 참가자는 기존 머신러닝 애플리케이션에 맞춰 데이터를 탐색, 정리, 구성하는 데 필요한 필수 기술을 배웁니다. 주요 주제로는 데이터 시각화, 피처 엔지니어링, 최적의 특성 스토리지 전략 등이 있습니다. 실습을 통해 참가자는 Databricks 내에서 머신러닝을 위한 데이터셋을 효율적으로 준비하는 실무 경험을 얻게 됩니다. 이 과정은 준전문가 수준의 데이터 과학자, 머신러닝 실무자 및 데이터 준비의 숙련도를 높이고자 하는 개인을 위해 설계되었으며, 이 과정을 통해 머신러닝 모델을 성공적으로 배포할 수 있는 튼튼한 기반을 마련할 수 있습니다.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
4h
Prerequisites

이 과정을 시작하기 전에 최소한 다음 사항에 익숙해야 합니다.

  • Databricks 작업 공간 및 노트북에 대한 지식
  • Delta Lake와 Lakehouse에 대한 지식
  • Python에 대한 중급 수준의 지식

Upcoming Public Classes

Date
Time
Language
Price
Dec 04
09 AM - 01 PM (Asia/Seoul)
Korean
$750.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Data Ingestion with Lakeflow Connect - Korean

이 과정에서는 다양한 소스에서 Databricks로 데이터를 수집하기 위한 확장 가능하고 간소화된 솔루션인 Lakeflow Connect에 대한 포괄적인 소개를 제공합니다. 먼저 다양한 유형의 Lakeflow Connect 커넥터(표준 및 관리형)를 탐색하고 배치, 증분 배치 및 스트리밍 수집을 포함한 다양한 데이터 수집 기술을 알아봅니다. 또한 Delta 테이블 및 Medallion 아키텍처를 사용할 때의 주요 이점도 검토합니다.

다음으로, Lakeflow Connect 표준 커넥터를 사용하여 클라우드 객체 스토리지에서 데이터를 수집하기 위한 실용적인 기술을 개발합니다. 여기에는 CREATE TABLE AS SELECT(CTAS), COPY INTO 및 Auto Loader와 같은 방법을 사용하는 작업이 포함되며 각 방법의 이점과 고려 사항에 중점을 둡니다. 또한 Databricks Data Intelligence Platform로 수집하는 동안 브론즈 수준 테이블에 메타데이터 열을 추가하는 방법도 알아봅니다. 그런 다음 이 과정에서는 복구된 데이터 열을 사용하여 테이블 스키마와 일치하지 않는 레코드를 처리하는 방법과 이 데이터를 관리하고 분석하기 위한 전략을 다룹니다. 또한 반정형 JSON 데이터를 수집하고 평면화하는 기술을 살펴봅니다.

그런 다음 Lakeflow Connect 관리형 커넥터를 사용하여 엔터프라이즈급 데이터 수집을 수행하여 데이터베이스 및 SaaS(Software-as-a-Service) 애플리케이션에서 데이터를 가져오는 방법을 살펴봅니다. 또한 이 과정에서는 파트너 도구를 수집 워크플로우에 통합하기 위한 옵션으로 Partner Connect를 소개합니다.

마지막으로, 이 과정은 MERGE INTO 작업 및 Databricks Marketplace 활용을 포함한 대체 수집 전략으로 마무리하여 최신 데이터 엔지니어링 사용 사례를 지원할 수 있는 강력한 기반을 제공합니다.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Associate
Data Engineer

Advanced Data Engineering with Databricks - Korean

이 과정은 고급 데이터 엔지니어링 with Databricks를 배우기 위한 적절한 입문 과정입니다. 

아래에서는 이 과정에 포함된 4개의 4시간짜리 모듈에 대해 각각 설명합니다.

Databricks Streaming and Delta Live Tables

Databricks 스트리밍 및 Delta Live Tables(SDLT) 과정은 학생들이 Databricks Certified Professional Data Engineer 인증 시험에 대비하도록 설계되었습니다. 이 과정의 콘텐츠는 데이터 엔지니어 학습 경로의 전문가 수준 모듈로 구성되어 있으며 강사가 진행하는 교육(ILT)으로 제공될 수 있습니다.

Databricks Data Privacy

이 콘텐츠는 Databricks 내에서 데이터 개인 정보를 관리하는 방법에 대한 포괄적인 가이드를 제공합니다. 여기에는 Delta Lake 아키텍처, 지역 데이터 격리, GDPR/CCPA 준수, Change Data Feed (CDF) 사용과 같은 주요 주제가 포함됩니다. 실습 데모와 실습 랩을 통해 참가자는 Unity Catalog 기능을 사용하여 민감한 데이터를 보호하고 규정 준수를 보장하는 방법을 배우고, 데이터 무결성을 효과적으로 보호할 수 있는 역량을 강화합니다.

Databricks Performance Optimization

이 과정에서는 Spark와 Delta Lake를 이용하여 워크로드와 물리적 레이아웃을 최적화하는 방법과 Spark UI를 분석하여 성능을 평가하고 애플리케이션을 디버깅하는 방법을 알아봅니다. 스트리밍, liquid 클러스터링, 데이터 스키핑, 캐싱, photon 등의 주제를 다룹니다.

Automated Deployment with Databricks Asset Bundles

이 과정에서는 DevOps 원칙과 이를 Databricks 프로젝트에 적용하는 방법을 포괄적으로 살펴봅니다. 이 과정은 핵심 DevOps, DataOps, continuous integration (CI), continuous deployment (CD) 및 테스트에 대한 개요부터 시작하여 이러한 원칙을 데이터 엔지니어링 파이프라인에 어떻게 적용할 수 있는지 알아봅니다.

그런 다음 이 과정은 CI/CD 프로세스 내에서 지속적 배포에 초점을 맞추고 프로젝트 배포를 위한 Databricks REST API, SDK, CLI와 같은 도구를 살펴봅니다. Databricks Asset Bundles (DAB)에 대해 알아보고 이것이 CI/CD 프로세스에 어떻게 적용되는지 알아보겠습니다. Databricks Asset Bundles의 핵심 구성 요소, 폴더 구조 및 이를 통해 다양한 대상 환경에서 배포를 간소화하는 방법에 대해 자세히 알아보겠습니다. 또한 Databricks CLI를 사용하여 다양한 구성의 여러 환경에서 Databricks Asset Bundles를 변수 추가, 수정, 검증, 배포 및 실행하는 방법도 알아봅니다.

마지막으로, 이 과정에서는 Databricks Asset Bundles를 로컬에서 빌드, 테스트 및 배포하여 개발 프로세스를 최적화하기 위한 대화형 개발 환경(IDE)인 Visual Studio Code를 소개합니다. 이 과정은 Databricks Asset Bundles를 사용하여 CI/CD 워크플로를 개선하기 위해 GitHub Actions를 사용하여 배포 파이프라인을 자동화하는 방법을 소개하면서 마무리됩니다.

이 과정을 마치면 Databricks Asset Bundles를 사용하여 Databricks 프로젝트 배포를 자동화하고 DevOps 방식을 통해 효율성을 개선할 수 있습니다.

Languages Available: English | 日本語 | Português BR | 한국어

Languages Available: English | 日本語 | Português BR | 한국어

Paid
16h
Lab
instructor-led
Professional

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.