Erstellen Sie hochwertige RAG-Apps mit dem Mosaic AI Agent Framework und Agentenbewertung, Modellbereitstellung und Vektorsuche

Demo-Typ

Produktanleitung

Laufzeit

im eigenen Tempo

Social Media

Was Sie lernen werden

LLMs verändern die Art und Weise, wie wir mit Informationen interagieren, von internen Wissensdatenbanken bis hin zu externen, kundenorientierten Dokumentationen oder Support.

Lernen Sie, wie Sie einen Echtzeit-Q&A-Chatbot mit Databricks Retrieval Augmented Generation (RAG) und serverlosen Fähigkeiten erstellen und bereitstellen, indem Sie das DBRX Instruct Foundation Model für intelligente Antworten nutzen.

RAG ist eine leistungsstarke Technik, bei der wir die LLM-Aufforderung mit zusätzlichem Kontext spezifisch für Ihren Bereich anreichern, damit das Modell bessere Antworten liefern kann.

Diese Technik liefert hervorragende Ergebnisse mit öffentlichen Modellen, ohne dass Sie Ihre eigenen LLMs bereitstellen und feinabstimmen müssen.

Sie werden lernen, wie man:

  • Bereiten Sie saubere Dokumente vor, um Ihre interne Wissensbasis aufzubauen und Ihren Chatbot zu spezialisieren
  • Nutzen Sie die Vektorsuche von Databricks mit unserem Foundation Model-Endpunkt, um Dokumenten-Einbettungen zu erstellen und zu speichern
  • Suchen Sie ähnliche Dokumente in unserer Wissensdatenbank mit Databricks Vector Search
  • Implementieren Sie ein Echtzeit-Modell mit RAG und liefern Sie erweiterten Kontext in der Aufforderung
  • Nutzen Sie das DBRX Instruktionsmodell über den Databricks Foundation Model Endpunkt (vollständig verwaltet)
  • Setzen Sie Ihre Mosaic AI Agent Evaluation Anwendung ein, um die Antworten zu überprüfen und den Datensatz zu bewerten
  • Implementieren Sie ein Chatbot-Frontend mit der Lakehouse-Anwendung

 

Um die Demo auszuführen, holen Sie sich eine kostenlose Databricks-Arbeitsumgebung und führen Sie die folgenden zwei Befehle in einem Python-Notizbuch aus:

Empfohlen

<p>Lakehouse Überwachung und Vektorsuche</p>

On-Demand-Video

Lakehouse Überwachung und Vektorsuche

<p><span><span><span><span><span><span>Feature Store und Online-Inferenz</span></span></span></span></span></span></p>

Tutorial

Feature Store und Online-Inferenz

<p>KI-Funktionen: LLMs mit SQL abfragen</p>

Tutorial

KI-Funktionen: LLMs mit SQL abfragen

Haftungsausschluss: Dieses Tutorial nutzt Funktionen, die derzeit in einer privaten Vorschau verfügbar sind. Die Bedingungen für die private Vorschau von Databricks gelten.
Für weitere Details öffnen Sie das Einführungs-Notebook.