주요 컨텐츠로 이동

Get Started with Databricks for Generative AI - Korean

이 과정에서는 Mosaic AI 플랫폼에 대한 실용적인 소개를 제공하며, 생성적 AI 시스템을 구축하고 배포하기 위한 핵심 구성 요소와 기능에 중점을 둡니다. 참가자들은 Databricks가 확장 가능한 생성적 AI 솔루션 개발을 어떻게 촉진하는지 배우고 벡터 검색, 에이전트 프레임워크, 모델 추적 및 로깅을 위한 MLflow의 생성적 AI 기능과 같은 Mosaic AI 도구를 탐색합니다. 이 과정에는 Retrieval Augmented Generation (RAG) 파이프라인을 구성하고 평가하고, 생성적 AI 에이전트를 배포하고, 평가 프레임워크를 활용하여 성능을 최적화하는 방법에 대한 실무 경험이 포함되어 있습니다. 과정을 마치면 학습자는 Mosaic AI를 사용하여 일반적인 생성형 AI 애플리케이션을 설계, 배포 및 모니터링하는 기술을 갖추게 됩니다.


Languages Available: English | 日本語 | Português BR | 한국어 | Français

Skill Level
Onboarding
Duration
2h
Prerequisites

이 콘텐츠는 다음과 같은 기술/지식/능력을 갖춘 참여자를 위해 개발되었습니다.  

  • 생성적 AI 엔지니어링 주제에 대한 기본 지식이 권장됩니다.


Outline

Databricks Mosaic AI 개요

생성 AI 기회

Databricks Mosaic AI 플랫폼


프롬프트 엔지니어링 (내부 및 외부 모델 사용)

프롬프트 엔지니어링 기초

AI Playground의 프롬프트 엔지니어링

Mosaic AI Gateway 소개

AI 게이트웨이를 사용한 외부 모델


RAG 파이프라인을 만들고 등록하세요

Retrieval Augmented Generation (RAG) 기본 사항

Mosaic AI Vector Search

GenAI를 위한 MLflow

RAG 애플리케이션 빌드 및 등록


AI 시스템 평가 및 배포

종단간 평가

에이전트 프레임워크를 사용한 평가

Model Serving를 사용한 실시간 배포

데모: Model Serving를 사용한 실시간 배포


Databricks의 엔드투엔드 RAG Pipeline

랩: 엔드투엔드 RAG Pipeline

Upcoming Public Classes

Date
Time
Language
Price
Dec 18
02 PM - 04 PM (Asia/Seoul)
Korean
Free

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Build Data Pipelines with Lakeflow Declarative Pipelines - Korean

이 과정에서는 여러 스트리밍 테이블과 구체화된 보기를 통한 증분 배치 또는 스트리밍 수집 및 처리를 위해 Databricks의 Lakeflow 선언적 파이프라인를 사용하여 데이터 파이프라인을 구축하는 데 필요한 필수 개념과 기술을 사용자에게 소개합니다. Lakeflow 선언적 파이프라인를 처음 접하는 데이터 엔지니어를 위해 설계된 이 과정은 증분 데이터 처리, 스트리밍 테이블, 구체화된 보기 및 임시 보기와 같은 핵심 구성 요소에 대한 포괄적인 개요를 제공하고 구체적인 목적과 차이점을 강조합니다.

다루는 주제는 다음과 같습니다.

- SQL을 사용하여 Lakeflow의 다중 파일 편집기로 ETL 파이프라인 개발 및 디버깅 (Python 코드 예제 제공)

- Lakeflow 선언적 파이프라인이 파이프라인 그래프

를 통해 파이프라인의 데이터 종속성을 추적하는 방법- 파이프라인 컴퓨팅 리소스, 데이터 자산, 트리거 모드 및 기타 고급 옵션

 구성 다음으로, 이 과정에서는 Lakeflow의 데이터 품질 기대치를 소개하고, 데이터 무결성을 검증하고 적용하기 위해 기대치를 파이프라인에 통합하는 프로세스를 안내합니다. 그런 다음 학습자는 스케줄링 옵션, 프로덕션 모드, 파이프라인 이벤트 로깅을 활성화하여 파이프라인 성능 및 상태를 모니터링하는 등 파이프라인을 프로덕션에 적용하는 방법을 살펴봅니다.

마지막으로, 이 과정에서는 Lakeflow Declarative Pipelines 내에서 APPLY CHANGES INTO 구문을 사용하여 Change Data Capture  (CDC)를 구현하여 느리게 변화하는 차원(SCD 유형 1 및 유형 2)을 관리하여 사용자가 CDC를 자신의 파이프라인에 통합할 수 있도록 준비하는 방법을 다룹니다.

참고: 이 과정은 'Databricks을 사용한 데이터 엔지니어링' 과정 시리즈의 일부입니다.

Languages Available: English | 日本語 | Português BR | 한국어

Free
4h
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.