Déployez des Chatbots LLM avec RAG et la recherche vectorielle Databricks
Qu'allez-vous apprendre ?
Dans cette visite de produit, vous verrez comment un système RAG (Retrieval Augmented Generation) de bout en bout fonctionne sur Databricks et améliore la précision et la pertinence de votre application IA, en extrayant dynamiquement les informations les plus récentes et pertinentes pour chaque requête. Voyez comment vous pouvez intégrer sans problème RAG dans vos flux de travail, offrant une expérience utilisateur intuitive qui simplifie les interactions complexes avec les données, garantissant que votre équipe peut se concentrer sur des tâches stratégiques plutôt que sur la gestion des données. Dans cette visite, vous apprendrez sur :
- Mise en place d'un flux de travail pour ingérer des données non structurées (PDF) et les enregistrer dans des tables Delta
- Utiliser un modèle d'incorporation pour transformer les données textuelles en vecteurs et les stocker dans une base de données vectorielle
- Servir des Modèles d'Intégration, des Modèles Linguistiques Fondamentaux, et même des chaînes langchain !
- Enchaîner votre LLM avec vos données pour augmenter les réponses du modèle
Si vous souhaitez essayer cela dans votre propre espace de travail, consultez le tutoriel du produit.
Type
Visite guidée
Durée
Auto-dirigé
Liens Associés