高品質なRAGアプリをMosaic AIエージェントフレームワークとエージェント評価、モデル提供、ベクトル検索で構築します
動画の内容
LLMは、内部の知識ベースから外部の、顧客向けのドキュメンテーションやサポート まで、情報とのやり取りの方法を変革しています。
Databricksのリトリーバル拡張生成(RAG)とサーバーレス機能を使用して、リアルタイムのQ&Aチャットボットを作成しデプロイする方法を学びましょう。これにより、DBRX Instruct Foundation Modelを活用してスマートなレスポンスを得ることができます。
RAGは、モデルがより良い回答を提供できるように、特定のドメインに特化した追加のコンテキストでLLMプロンプトを豊かにする強力な手法です。
この技術は、自分自身のLLMをデプロイして微調整することなく、公開モデルを使用して優れた結果を提供します。
あなたが学ぶこと:
- あなたの内部知識ベースを構築し、チャットボットを特化させるためのクリーンなドキュメントを準備します
- Databricks Vector Searchと私たちのFoundation Modelエンドポイントを使用して、ドキュメントの埋め込みを作成し保存します
- Databricks Vector Searchを使用して、私たちの知識データベースから類似のドキュメントを検索します
- RAGを使用してリアルタイムモデルをデプロイし、プロンプトに拡張コンテキストを提供します
- Databricks Foundation Modelエンドポイント(完全に管理された)を通じてDBRX指示モデルを活用してください。
- あなたのモザイクAIエージェント評価アプリケーションをデプロイして、回答をレビューし、データセットを評価してください。
- Lakehouseアプリケーションを使用してチャットボットのフロン トエンドをデプロイします
デモを実行するには、無料のDatabricksワークスペースを取得し、Pythonノートブックで以下の2つのコマンドを実行します:
免責事項:このチュートリアルは現在プライベートプレビュー中の機能を活用しています。Databricks Private Previewの利用規約が適用されます。
詳細については、導入ノートブックを開いてください。