Déployez des Chatbots LLM avec RAG et la recherche vectorielle Databricks

Qu'allez-vous apprendre ?

Dans cette visite de produit, vous verrez comment un système RAG (Retrieval Augmented Generation) de bout en bout fonctionne sur Databricks et améliore la précision et la pertinence de votre application IA, en extrayant dynamiquement les informations les plus récentes et pertinentes pour chaque requête.  Voyez comment vous pouvez intégrer sans problème RAG dans vos flux de travail, offrant une expérience utilisateur intuitive qui simplifie les interactions complexes avec les données, garantissant que votre équipe peut se concentrer sur des tâches stratégiques plutôt que sur la gestion des données. Dans cette visite, vous apprendrez sur :

  • Mise en place d'un flux de travail pour ingérer des données non structurées (PDF) et les enregistrer dans des tables Delta
  • Utiliser un modèle d'incorporation pour transformer les données textuelles en vecteurs et les stocker dans une base de données vectorielle
  • Servir des Modèles d'Intégration, des Modèles Linguistiques Fondamentaux, et même des chaînes langchain !
  • Enchaîner votre LLM avec vos données pour augmenter les réponses du modèle  

Si vous souhaitez essayer cela dans votre propre espace de travail, consultez le tutoriel du produit.

Lancer la visite guidée du produit

Recommandations

datascience icon

Didacticiel

Build High-Quality RAG Apps with Mosaic AI Agent Framework and Agent Evaluation, Model Serving, and Vector Search

data science

Vidéo à la demande

Lakehouse Monitoring and Vector Search

demothumb-small-tour-devexperience.png

Visite guidée

Discover LakehouseIQ: The AI-Powered Engine That Uniquely Understands Your Business