Direkt zum Hauptinhalt

Managed MLflow

Erstellen Sie bessere Modelle und generative KI-Apps

Was ist Managed MLflow?

Managed MLflow erweitert die Funktionalität von ,MLflow einer Open Source von entwickelten Plattform Databricks zum Erstellen besserer Modelle und generativer KI-Apps, mit Schwerpunkt auf Unternehmenszuverlässigkeit, Sicherheit und Skalierbarkeit. Das neueste Update für MLflow führt innovative GenAI- und LLMOps-Funktionen ein, die die Fähigkeit zur Verwaltung und Anwendung großer Sprachmodelle (LLMs) verbessern. Diese erweiterte LLM Unterstützung wird durch neue Integrationen mit den Branchenstandard- LLM Tools OpenAI und Hugging Face Transformers sowie dem MLflow Deployments Server erreicht. Darüber hinaus ermöglicht die Integration von MLflowmit LLM Frameworks (z. B. LangChain) eine vereinfachte Modellentwicklung zur Erstellung generativer KI-Anwendungen für eine Vielzahl von Anwendungsfällen, darunter Chatbots, Dokumentzusammenfassung, Textklassifizierung, Sentimentanalysen und mehr.

Vorteile

model development

Modellentwicklung

Verbessern und beschleunigen Sie das Lebenszyklusmanagement maschinellen Lernens mit einem standardisierten Rahmen für produktionsreife Modelle. Verwaltete MLflow Rezepte ermöglichen nahtloses Bootstrapping ML Projekten, schnelle Iteration und Bereitstellung von Modellen im großenScale . Erstellen Sie mühelos Anwendungen wie Chatbots, Dokumentzusammenfassungen, Sentimentanalysen und Klassifizierungen. Entwickeln Sie ganz einfach generative KI-Apps (z. B. Chatbots, Dokumentzusammenfassung) mit den LLM-Angeboten von MLflow, die sich nahtlos in LangChain, Hugging Face und OpenAI integrieren lassen.

Deploy a model for a batch interface

Nachverfolgung von Experimenten

Führen Sie Experimente mit jeder ML -Bibliothek, jedem Framework oder jeder Sprache durch und behalten Sie automatisch den Überblick über Parameter, Metriken, Code und Modelle aus jedem Experiment. Durch die Verwendung MLflow auf Databricks können Sie Experiment zusammen mit den entsprechenden Artefakten und Codeversionen sicher teilen, verwalten und vergleichen – dank integrierter Integrationen mit dem Databricks Arbeitsbereich und -Notebook. Sie können auch die Ergebnisse des GenAI-Experiments auswerten und die Qualität mit MLflow Auswertungsfunktion verbessern.

model development

Modellverwaltung

Nutzen Sie eine zentrale Stelle, um ML-Modelle zu entdecken und gemeinsam zu nutzen, um sie gemeinsam vom Experiment zu Online-Tests und zur Produktion zu bringen, um sie in Genehmigungs- und Governance-Workflows und CI/CD-Pipelines zu integrieren und um ML-Einsätze und ihre Leistung zu überwachen. MLflow Model Registry erleichtert den Austausch von Know-how und Wissen und hilft Ihnen, die Kontrolle zu behalten.

model development

Modelle bereitstellen

Implementieren Sie schnell Produktionsmodelle für Batch-Inferenzen auf Apache Spark™ oder als REST-APIs mithilfe der integrierten Integration mit Docker-Containern, Azure ML oder Amazon SageMaker. Mit Managed MLflow auf Databricks können Sie Produktionsmodelle mit dem Databricks Jobs Scheduler und automatisch verwalteten Clustern operationalisieren und überwachen, um sie je nach Geschäftsanforderungen zu skalieren.

Die neuesten Upgrades für MLflow ermöglichen eine nahtlose Bereitstellung von Paket-GenAI-Anwendungen. Sie können jetzt Ihre Chatbots und andere GenAI-Anwendungen wie Dokumentzusammenfassung, Sentimentanalysen und Klassifizierung im Scale mithilfe von Databricks Model Serving anwenden.

Features

MLflow Tracking

MLFLOW TRACKING: Automatically log parameters, code versions, metrics, and artifacts for each run using Python, REST, R API, and Java API

GENERATIVE AI DEVELOPMENT: Simplify model development to build GenAI applications for a variety of use cases such as chatbots, document summarization, sentiment analysis and classification with MLflow’s Deployments Server and Evaluation UI, supported by native integration with LangChain, and seamless UI for fast prototyping and iteration.

MLFLOW TRACKING SERVER: Get started quickly with a built-in tracking server to log all runs and experiments in one place. No configuration needed on Databricks.

EXPERIMENT MANAGEMENT: Create, secure, organize, search and visualize experiments from within the workspace with access control and search queries.

MLFLOW RUN SIDEBAR: Automatically track runs from within notebooks and capture a snapshot of your notebook for each run so that you can always go back to previous versions of your code.

LOGGING DATA WITH RUNS: Log parameters, datasets, metrics, artifacts and more as runs to local files, to a SQLAlchemy compatible database, or remotely to a tracking server.

DELTA LAKE INTEGRATION: Track large-scale datasets that fed your models with Delta Lake snapshots.

ARTIFACT STORE: Store large files such as S3 buckets, shared NFS file system, and models in Amazon S3, Azure Blob Storage, Google Cloud Storage, SFTP server, NFS, and local file paths.

MLflow Models

MLFLOW MODELS: A standard format for packaging machine learning models that can be used in a variety of downstream tools — for example, real-time serving through a REST API or batch inference on Apache Spark.

MODEL CUSTOMIZATION: Use Custom Python Models and Custom Flavors for models from an ML library that is not explicitly supported by MLflow’s built-in flavors.

BUILT-IN MODEL FLAVORS: MLflow provides several standard flavors that might be useful in your applications, like Python and R functions, Hugging Face, OpenAI and LangChain, PyTorch, Spark MLlib, TensorFlow and ONNX.

BUILT-IN DEPLOYMENT TOOLS: Quickly deploy on Databricks via Apache Spark UDF for a local machine, or several other production environments such as Microsoft Azure ML, Amazon SageMaker, and building Docker Images for Deployment.

MLflow Model Registry

CENTRAL REPOSITORY: Register MLflow models with the MLflow Model Registry. A registered model has a unique name, version, stage and other metadata.

MODEL VERSIONING: Automatically keep track of versions for registered models when updated.

MODEL STAGE: Assign preset or custom stages to each model version, like “Staging” and “Production” to represent the lifecycle of a model.

CI/CD WORKFLOW INTEGRATION: Record stage transitions, request, review and approve changes as part of CI/CD pipelines for better control and governance.

MODEL STAGE TRANSITIONS: Record new registration events or changes as activities that automatically log users, changes, and additional metadata such as comments.

MLflow Deployments Server

GOVERN ACCESS TO LLMS: Manage SaaS LLM credentials.

CONTROL COSTS: Set up rate limits.

STANDARDIZE LLM INTERACTIONS: Experiment with different OSS/SaaS LLMs with standard input/output interfaces for different tasks: completions, chat, embeddings.

MLflow Projects

MLFLOW PROJECTS: MLflow projects allow you to specify the software environment that is used to execute your code. MLflow currently supports the following project environments: Conda environment, Docker container environment, and system environment. Any Git repo or local directory can be treated as an MLflow project.

REMOTE EXECUTION MODE: Run MLflow Projects from Git or local sources remotely on Databricks clusters using the Databricks CLI to quickly scale your code.

MLflow Recipes

SIMPLIFIED PROJECT STARTUP: MLflow Recipes provides out-of-box connected components for building and deploying ML models.

ACCELERATED MODEL ITERATION: MLflow Recipes creates standardized, reusable steps for model iteration — making the process faster and less expensive.

AUTOMATED TEAM HANDOFFS: Opinionated structure provides modularized production-ready code, enabling automatic handoff from experimentation to production.

Sehen Sie sich doch unsere Produktneuigkeiten von Azure Databricks und AWS an, um mehr über unsere neuesten Funktionen zu erfahren.

Vergleichen von MLflow-Angeboten

Open Source MLflow

Managed MLflow on Databricks

Nachverfolgung von Experimenten

MLflow-Tracking-API

MLflow-Tracking-Server

Eigenes Hosting

Vollständig verwaltet

Notebooks-Integration

Workflow-Integration

Projekte reproduzieren

MLflow-Projekte

Git- und Conda-Integration

Skalierbare Cloud/Cluster für Projektdurchläufe

Modellverwaltung

MLflow-Modellregister

Modellversionierung

ACL-basierte Stage Transition

CI/CD-Workflow-Integrationen

Flexible Bereitstellung

Eingebaute Batch-Inferenz

MLflow-Modelle

Eingebaute Streaming-Analyse

Sicherheit und Management

Hochverfügbarkeit

Automatische Updates

Rollenbasierte Zugriffskontrolle

Wie es funktioniert

MLflow ist ein kompakter Satz von APIs und Benutzeroberflächen, die mit jedem ML-Framework im gesamten Workflow für Machine Learning verwendet werden können. Er umfasst vier Komponenten: MLflow Tracking, MLflow Projects, MLflow Models und MLflow Model Registry

Mehr über MLflow

managed mlflow
MLFLOW-VERFOLGUNG

Experiment aufzeichnen und abfragen: Code, Daten, Konfiguration und Ergebnisse.

Mehr Informationen
managed mlflow
MLflow-Projekte

Paketformat für reproduzierbare Durchläufe auf jeder Plattform.

Mehr Informationen
managed mlflow
MLflow-Modelle

Allgemeines Format zum Senden von Modellen an verschiedene Bereitstellungstools.

Mehr Informationen
managed mlflow
MLflow-Modellregister

Zentralisiertes Repository zur gemeinsamen Verwaltung von MLflow-Modellen über den gesamten Lebenszyklus hinweg.

Mehr Informationen

Managed MLflow auf Databricks

Managed MLflow auf Databricks ist eine vollständig verwaltete Version von MLflow , die Praktikern Reproduzierbarkeit und Experiment über Databricks -Notebook, Jobs und Datenspeicher hinweg bietet, mit der Zuverlässigkeit, Sicherheit und Skalierbarkeit der Databricks Data Intelligence Platform.

Dokumentation lesen

Log Your First Run as an Experiment MLflow

Ressourcen