Déployez des Chatbots LLM avec RAG et la recherche vectorielle Databricks

Qu'allez-vous apprendre ?

Dans cette visite de produit, vous verrez comment un système RAG (Retrieval Augmented Generation) de bout en bout fonctionne sur Databricks et améliore la précision et la pertinence de votre application IA, en extrayant dynamiquement les informations les plus récentes et pertinentes pour chaque requête.  Voyez comment vous pouvez intégrer sans problème RAG dans vos flux de travail, offrant une expérience utilisateur intuitive qui simplifie les interactions complexes avec les données, garantissant que votre équipe peut se concentrer sur des tâches stratégiques plutôt que sur la gestion des données. Dans cette visite, vous apprendrez sur :

  • Mise en place d'un flux de travail pour ingérer des données non structurées (PDF) et les enregistrer dans des tables Delta
  • Utiliser un modèle d'incorporation pour transformer les données textuelles en vecteurs et les stocker dans une base de données vectorielle
  • Servir des Modèles d'Intégration, des Modèles Linguistiques Fondamentaux, et même des chaînes langchain !
  • Enchaîner votre LLM avec vos données pour augmenter les réponses du modèle  

Si vous souhaitez essayer cela dans votre propre espace de travail, consultez le tutoriel du produit.

Lancer la visite guidée du produit

Recommandations

<p>Construisez des applications RAG de haute qualité avec le cadre d'agent Mosaic AI et l'évaluation d'agent, le service de modèle et la recherche vectorielle</p>

Didacticiel

Construisez des applications RAG de haute qualité avec le cadre d'agent Mosaic AI et l'évaluation d'agent, le service de modèle et la recherche vectorielle

<p>Surveillance Lakehouse et Recherche Vectorielle</p>

Vidéo à la demande

Surveillance Lakehouse et Recherche Vectorielle

<p>Découvrez LakehouseIQ : Le moteur alimenté par l'IA qui comprend de manière unique votre entreprise</p>

Visite guidée

Découvrez LakehouseIQ : Le moteur alimenté par l'IA qui comprend de manière unique votre entreprise