メインコンテンツへジャンプ

edXの新しい専門家主導の大規模言語モデル(LLMs)コースに登録する

Share this post

Original : Enroll in our New Expert-Led Large Language Models (LLMs) Courses on edX

翻訳: junichi.maruyama 

 

edXの入門コースに今すぐ登録する!コースは2023年夏開始予定です

edXの新しい大規模言語モデルコース

Large Language Model (LLM)アプリケーションが無数の産業を破壊する中、生成AIは重要な基盤技術になりつつある。LLMベースのアプリケーションの需要は急増しており、それを構築できるエンジニアの需要も高まっています。 

今日、私たちは新しいLarge Language Models programを発表します。これは、最新のアプリケーションにおける言語モデルの構築と使用に特化した、初の専門家主導のオンラインコースです。業界リーダーや研究者によるダイナミックな講義、デモ、実習を通して、受講生はLLMアプリケーションの開発・生産方法を学ぶことができます。また、Databricks社のDollyをはじめとする基盤モデルの理論や主要な革新技術、その微調整方法についての理解を深め、LLMによるビジネスの付加価値を簡単かつ安価に高めることができるようになります。コースでは、プロンプトエンジニアリング(LangChainを使用)、エンベッディング、ベクトルデータベース、モデルチューニングなど、LLM分野の最新テクニックをカバーする予定です。

LLMsプログラムは、LLMsの2つのコースで構成されています: アプリケーションからプロダクションまでとLLMsの2つのコースで構成されています: LLMs: Application through Production」と「LLMs: Foundation Models from the Ground Up」の2つのコースで構成されています。コースの講師には、スタンフォード大学のMatei Zaharia 教授や、Databricks社のDollyモデルを構築した技術チームが参加する予定です。AIの民主化という目標に基づき、コース教材は誰でも無料で聴講できるようにします。また、学習者はコースラボのためのマネージドコンピュータ環境へのアクセス、評価付き演習、および修了証のために、わずかな料金を支払うことができます。

Learn how to use LLMs with Dolly

最初のコースであるLLMs: Application through Productionは、最新かつ最も人気のあるフレームワークでLLMを中心としたアプリケーションを構築したい開発者、データサイエンティスト、エンジニアを対象としています。さらに、以下のトピックをカバーします:

  • Hugging FaceやLangChainなどの人気ライブラリを使用して、LLMをNLPの実世界の問題に適用する方法。
  • エンベッディングやベクターデータベースを使って、LLMパイプラインにドメイン知識と記憶を追加する方法。
  • プリトレーニング、ファインチューニング、プロンプトエンジニアリングのニュアンスを理解し、その知識をカスタムチャットモデルの微調整に適用する。
  • LLMの有効性とバイアスを評価する方法。
  • LLMワークフローにおけるLLMOpsと多段階推論のベストプラクティスを実装する方法。

2つ目のコースLLMs: Foundation Models from the Ground Up は、基礎モデルの詳細と、トランスフォーマーベースのモデルの普及につながった重要なイノベーションに飛び込むことに関心のあるデータサイエンティストを対象としています。このコースでは、以下の内容を学びます:

  • アテンション、デコーダー、エンコーダーなどの基礎モデルの理論や工夫が、GPT-4にどのようにつながっていったか
  • ワンショット学習、数ショット学習、知識蒸留などの転移学習技術を活用し、性能を維持したままLLMのサイズを小さくする方法
  • 現在のLLMの研究・開発でこの領域が向かうところ

プログラム終了時には、学習者自身がエンドツーエンドで制作可能なLLMワークフローを構築することができます。プログラム修了後には、履歴書やLinkedInに掲載できるプロフェッショナル認定証が発行されます。

今すぐedXのLarge Language Models プログラムに入学してください!コースは2023年夏に開始予定です。

 

Databricks 無料トライアル

関連記事

Free Dolly: 世界初の真にオープンな指示でチューニングされたLLM

Original Post: Free Dolly: Introducing the World's First Truly Open Instruction-Tuned LLM 翻訳: Takaaki Yayoi 2週間前、ChatGPTのような人間のインタラクティブ性(指示追従性)を示すように、$30以下でトレーニングされた大規模言語モデル(LLM)である Dolly をリリースしました。本日、 研究と商用利用 にライセンスされた、人の手で生成された指示データセットでファインチューンされた、史上初のオープンソース、指示追従LLMである Dolly 2.0 をリリースします。...

Dolly:オープンなモデルで ChatGPT の魔法を民主化

概要 Databricks では、従来のオープンソースの大規模言語モデル(LLM)を利用して ChatGPT のような命令追従能力を実現できることを確認しました。高品質な学習データを使用して 1 台のマシンで 30 分ほどトレーニングするだけです。また、命令追従能力の実現には、必ずしも最新のモデルや大規模なモデルは必要ないようです。GPT-3 のパラメータ数が 1750 億であるのに対し、私たちのモデルでは 60 億です。私たちはモデル Dolly のコードをオープンソース化しています。Dolly を Databricks 上でどのように再作成できるか、今回のブログではこのことについて詳しく解説します。 Dolly のようなモデルは LLM の民主化を促進します。LLM...

Hugging Faceトランスフォーマーのパイプラインを使ったNLPを始めよう

February 5, 2023 Paul Ogilvie による投稿 in エンジニアリングのブログ
Original Blog : Getting started with NLP using Hugging Face transformers pipelines 翻訳: junichi.maruyama 自然言語処理(NLP)の進歩は、企業がテキストデータから価値を引き出すための前例のない機会を解き放ちました。自然言語処理は、テキストの要約、人や場所などの固有名詞の認識、感情分類、テキスト分類、翻訳、質問応答など、幅広い用途に使用できます。多くの場合、大規模なテキストデータセットで事前に訓練された機械学習モデルから、高品質の結果を得ることができます。これらの事前学習済みモデルの多くは、オープンソースで公開されており、無料で使用することができます。 Hugging Face は、これらのモデルの素晴らしいソースの一つであり、彼らの Transformers ライブラリは、モデルを適用し、また自分のデータにも適応させるための使いやすいツールです。また、これらのモデルを自分のデータに合わせて微調整をすることも可能で
ニュース一覧へ