メインコンテンツへジャンプ
Company Blog

『ラーニングフェスティバル』でデータ+AIキャリアを加速させましょう

ジョディ・ソエイロ・デ・ファリア
キャサリン・カーニー
ショーン・パーク
チャン・レ
Share this post

データ+AIのキャリアを加速させるロールベースの学習を通じたスキルアップ

Databricksは、データ、アナリティクス、AIの各分野における学習者向けの技術トレーニングの作成と反復に長年を費やし、スキルアップや再スキルを目指す個人、チーム、組織がアクセスしやすく適切なコンテンツを利用できるようにしています。 データ、アナリティクス、AIにおけるAI/MLと役割の爆発的な増加に伴い、多くの組織で新しいテクノロジーを採用する必要性が加速しています。 2022年から2025年にかけて、AIに関わる9,700万件の雇用が創出されると予測されています。 これは、スケーラブルな方法で人材をスキルアップさせるというユニークな課題を提示しています。

Databricksの『ラーニングフェスティバル』であなたのキャリアを高めよう

Databricksのバーチャルラーニングフェスティバルは、データエンジニアリング、データサイエンス、データアナリティクスの各コースを、お客様、見込み客、パートナーのために構築し、スキルアップと再スキルアップを図るまたとない機会です。 このイベントでは、自分のペースで役割に応じたコンテンツに無料でアクセス可能です。 セルフペーストレーニングを修了された方には、50%-offDatabricks認定バウチャーを差し上げます。

自習コース全体の学習目標

1: データエンジニアコース -Databricksを使ったデータエンジニアリング

このコースでは、Databricks Data Intelligence Platformを活用し、ETLパイプラインをプロダクション化するためのデータプロフェッショナルを養成します。 受講生は、Delta Live Tables を使用して、様々なデータソースからプラットフォームへ新しいデータを段階的に処理するパイプラインを定義し、スケジュールします。 また、Databricks Workflowsを使用してタスクをオーケストレーションし、Databricks Reposを使用してコードを促進します。

学習目標

  • Databricks Data Science and Engineering Workspace を使用して、データエンジニアリングワークフローで一般的なコード開発タスクを実行します。
  • Spark SQLまたはPySparkを使用して、さまざまなソースからデータを抽出し、一般的なクリーニング変換を適用し、高度な関数で複雑なデータを操作します。
  • Spark SQLまたはPythonのDelta Live Tablesを使用して、レイクハウスの複数のテーブルからデータをインクリメンタルに取り込み、処理するデータパイプラインを定義し、スケジュールします。
  • Databricks Workflow Jobsでデータパイプラインをオーケストレーションし、ダッシュボードの更新をスケジュールして分析を最新の状態に保ちます。
  • Unity Catalogで権限を設定し、ユーザーがアナリティクスとダッシュボード用のデータベースに適切にアクセスできるようにします。

入会リンク

2: データエンジニアコース -Databricksによる高度なデータエンジニアリング

このコースでは、Apache Spark、Structured Streaming、Delta Lakeに関する既存の知識をベースに、Databricksが提供する一連のツールを活用することで、ジェネレーティブ・データ・プラットフォームの可能性を最大限に引き出します。 このコースでは、増加し続けるデータを継続的に取り込み、分析するために最適化されたシステムを可能にする、インクリメンタルなデータ処理を優先した設計に重点を置きます。 ビルトインのプラットフォーム最適化を活用するワークロードを設計することで、データエンジニアはコードのメンテナンスとオンコール緊急時の負担を軽減し、リファクタリングやダウンタイムを最小限に抑えながら、本番コードを新しい需要に迅速に適応させることができます。 このコースのトピックは、Databricks認定データエンジニアリングプロフェッショナル試験に挑戦する前に習得しておく必要があります。

学習目標

  • Databricksデータインテリジェンスプラットフォームに最適化されたデータベースとパイプラインを設計します。
  • ビジネス上の意思決定やアプリケーションを推進するデータを検証し、充実させるために、効率的なインクリメンタルデータ処理を実施する。
  • 機密データへのアクセスを管理し、忘却権要求を満たすための Databricks ネイティブ機能を活用します。
  • Databricksツールを使用して、コードプロモーション、タスクオーケストレーション、本番ジョブの監視を管理する。

入会リンク

3: データアナリストコース -Databricks SQLによるデータ分析

このコースでは、Databricks SQLを包括的に紹介します。 本書は、Databricks SQLアソシエイト・データ分析資格の取得を目指す方をサポートする目的で作成されています。 参加者は、データの取り込み、クエリの作成、ビジュアライゼーションとダッシュボードの作成、およびPartner Connectを使用したDatabricks SQLとその他のツールの接続方法について学びます。

学習目標

  • Lakehouse アーキテクチャにおける Databricks SQL の動作について説明する
  • UnityカタログとDelta LakeをDatabricks SQLと統合する
  • Databricks SQLがどのようにデータセキュリティを実装しているかを説明する
  • Databricks SQLでデータを照会する
  • Databricks専用のSQLコマンドを使用する
  • Databricks SQLでビジュアライゼーションとダッシュボードを作成する
  • Databricks SQLの自動化と統合機能の使用
  • Databricks SQLを使用して、クエリやダッシュボードを他のユーザーと共有する

入会リンク

4: 機械学習プラクティショナーコース -Apache Sparkによるスケーラブルな機械学習

このコースでは、分散トレーニング、ハイパーパラメータのチューニング、推論など、Sparkを使用してMLパイプラインを拡張する方法を学びます。 SparkMLを使用してMLモデルを構築・調整し、MLflowを活用してモデルの追跡、バージョンアップ、管理を行います。 このコースでは、Pandas UDF、Pandas Functions、pandas API on SparkなどのApache Sparkの最新のML機能や、Feature StoreやAutoMLなどの最新のML製品について学びます。

学習目標

  • SparkでスケーラブルなEDAを実行
  • SparkMLによる機械学習モデルの構築と調整
  • MLflowによるモデルの追跡、バージョン管理、デプロイ
  • HyperOptによる分散型ハイパーパラメータ・チューニングの実行
  • Databricks Machine Learningワークスペースを使用して、Feature StoreとAutoML実験を作成
  • Spark 上の pandas API を活用して pandas コードを拡張する

入会リンク

5: 機械学習プラクティショナーコース -生産現場での機械学習

このコースでは、機械学習モデルをプロダクションに導入するためのMLOpsのベストプラクティスを学びます。 コースの前半では、フィーチャーストアを使用して学習データを登録し、MLflowを使用して機械学習のライフサイクルを追跡し、デプロイのためにモデルをパッケージ化し、モデルのバージョンを管理します。 コースの後半では、デプロイメント・パラダイム、モニタリング、CI/CDを含むプロダクションの問題を検討します。 このコースの終了時には、機械学習モデルのログ収集、デプロイ、監視を行うエンドツーエンドのパイプラインを構築していることでしょう。

学習目標

  • 機械学習実験の追跡、バージョンアップ、管理。
  • Databricks Feature Storeを活用して再現可能なデータ管理を実現。
  • バッチ、ストリーミング、リアルタイムにモデルを展開するための戦略を実装。
  • ドリフト検知を含むモニタリングソリューションの構築。

入会リンク

Databricksラーニングフェスティバルの一環として、さらに4つのラーニングプランが提供されています。

* Databricks 認定バウチャーの取得方法

バーチャル・ラーニング・フェスティバルの期間内に、ロールベースのコースを少なくとも1つ修了した先着5,000名のユーザーに、Databricks認定バウチャー1が50%-off枚プレゼントされます。

1残りのUS$100は、クレジットカードのみで、試験申し込み時にWebassesorを通じて支払うことができる。

補足:

  1. バウチャーは、受講者が1つのコースまたは複数の学習プランを修了した場合でも、1枚のみ付与されます。
  2. バウチャーの有効期限は6ヶ月間です。 有効期限は6ヶ月)。
  3. バウチャーは以下の試験のみに適用されます:
    • Databricks認定データエンジニア・アソシエイト
    • Databricks認定データエンジニアプロフェッショナル
    • Databricks認定データアナリスト・アソシエイト
    • Databricks認定機械学習アソシエイト
    • Databricks認定機械学習プロフェッショナル
  4. バウチャーはイベント終了後1~2週間後に配布されます。
  5. 認定バウチャーは、他のオファーやサクセス・クレジットとの併用はできません。

ご質問がおありですか? Databricksコミュニティで質問するDatabricks アカデミー学習者グループ

Databricks アカデミーのバーチャル Databricks ラーニングフェスティバルで、スキルアップと再スキルを今すぐ始めましょう。

Databricks 無料トライアル

関連記事

Engineering blog

ついにスタート: ジェネレーティブAIラーニングの新提案

Original: Now Available: New Generative AI Learning Offerings 翻訳: junichi.maruyama Databricks Academyで提供するGenerative AI学習の新ポートフォリオを発表 大規模言語モデルへの 登録 : Databricks AcademyのApplication through Productionを今すぐ受講してください! ChatGPTやDollyなどのGenerative AIは、企業の将来の成功に欠かせない存在になっています。この市場で競争力を維持するためには、Generative AIを活用するためのスタッフのスキルアップとトレーニングが必要です。...
Platform blog

データ・インテリジェンス・プラットフォーム

「 ソフトウェアが世界を食べている 」という見方が、現代のハイテク産業を形成してきました。今日、ソフトウェアは、私たちが身につける時計から、家、車、工場、農場まで、私たちの生活のいたるところにあります。Databricksでは、まもなく AIがすべてのソフトウェアを食べるようになる と考えています。つまり、過去数十年の間に構築されたソフトウェアがインテリジェントになり、データを活用することで、より賢くなるということです。 その影響は膨大かつ多様で、カスタマーサポートから医療、教育まであらゆる分野に影響を及ぼします。このブログでは、AIがデータ・プラットフォームをどのように変えるかについて、私たちの見解を述べます。データ・プラットフォームに対するAIのインパクトは漸進的なものではなく、データへのアクセスを大幅に民主化し、手作業による管理を自動化し、カスタムAIアプリケーションのターンキー作成を可能にするという根本的なものであると主張します。 これらすべてを可能にするのが、組織のデータを深く理解する統合プラットフォー
Company blog

edXの新しい専門家主導の大規模言語モデル(LLMs)コースに登録する

Original : Enroll in our New Expert-Led Large Language Models (LLMs) Courses on edX 翻訳: junichi.maruyama edXの 入門コース に今すぐ登録する!コースは2023年夏開始予定です edXの新しい大規模言語モデルコース Large Language Model...
Databricks ブログ一覧へ