メインコンテンツへジャンプ
ページ 1

MegaBlocksをDatabricksへ: 次世代のトレーニングパワーを解き放つ

Databricksでは、大規模AIモデルのための最も効率的で高性能なトレーニングツールの構築に尽力しています。最近リリースされた DBRX では、トレーニングと推論の効率を大幅に向上させるMixture-of-Experts(MoE)モデルの力を強調しました。本日、DBRXのトレーニングに使用されたオープンソースライブラリである MegaBlocks が公式のDatabricksプロジェクトになることを発表します。また、オープンソースのトレーニングスタックである LLMFoundry へのMegaBlocks統合もリリースします。これらのオープンソースリリースに加え、スケールで最高のパフォーマンスを得る準備ができたお客様に対して、最適化された内部バージョンのオンボーディングも開始します。 Mixture of Experts(MoE)モデルとは? Mixture of Experts(MoE)モデルは、複数の専門ネットワーク、または「エキスパート」の出力を組み合わせて予測を行う機械学習モデルです。各エキスパート