Direkt zum Hauptinhalt

Managed MLflow

Erstellen Sie bessere Modelle und generative KI-Apps

Was ist Managed MLflow?

Managed MLflow erweitert die Funktionalität von ,MLflow einer Open Source von entwickelten Plattform Databricks zum Erstellen besserer Modelle und generativer KI-Apps, mit Schwerpunkt auf Unternehmenszuverlässigkeit, Sicherheit und Skalierbarkeit. Das neueste Update für MLflow führt innovative GenAI- und LLMOps-Funktionen ein, die die Fähigkeit zur Verwaltung und Anwendung großer Sprachmodelle (LLMs) verbessern. Diese erweiterte LLM Unterstützung wird durch neue Integrationen mit den Branchenstandard- LLM Tools OpenAI und Hugging Face Transformers sowie dem MLflow Deployments Server erreicht. Darüber hinaus ermöglicht die Integration von MLflowmit LLM Frameworks (z. B. LangChain) eine vereinfachte Modellentwicklung zur Erstellung generativer KI-Anwendungen für eine Vielzahl von Anwendungsfällen, darunter Chatbots, Dokumentzusammenfassung, Textklassifizierung, Sentimentanalysen und mehr.

Vorteile

model development

Modellentwicklung

Verbessern und beschleunigen Sie das Lebenszyklusmanagement maschinellen Lernens mit einem standardisierten Rahmen für produktionsreife Modelle. Verwaltete MLflow Rezepte ermöglichen nahtloses Bootstrapping ML Projekten, schnelle Iteration und Bereitstellung von Modellen im großenScale . Erstellen Sie mühelos Anwendungen wie Chatbots, Dokumentzusammenfassungen, Sentimentanalysen und Klassifizierungen. Entwickeln Sie ganz einfach generative KI-Apps (z. B. Chatbots, Dokumentzusammenfassung) mit den LLM-Angeboten von MLflow, die sich nahtlos in LangChain, Hugging Face und OpenAI integrieren lassen.

Deploy a model for a batch interface

Nachverfolgung von Experimenten

Führen Sie Experimente mit jeder ML -Bibliothek, jedem Framework oder jeder Sprache durch und behalten Sie automatisch den Überblick über Parameter, Metriken, Code und Modelle aus jedem Experiment. Durch die Verwendung MLflow auf Databricks können Sie Experiment zusammen mit den entsprechenden Artefakten und Codeversionen sicher teilen, verwalten und vergleichen – dank integrierter Integrationen mit dem Databricks Arbeitsbereich und -Notebook. Sie können auch die Ergebnisse des GenAI-Experiments auswerten und die Qualität mit MLflow Auswertungsfunktion verbessern.

model development

Modellverwaltung

Nutzen Sie eine zentrale Stelle, um ML-Modelle zu entdecken und gemeinsam zu nutzen, um sie gemeinsam vom Experiment zu Online-Tests und zur Produktion zu bringen, um sie in Genehmigungs- und Governance-Workflows und CI/CD-Pipelines zu integrieren und um ML-Einsätze und ihre Leistung zu überwachen. MLflow Model Registry erleichtert den Austausch von Know-how und Wissen und hilft Ihnen, die Kontrolle zu behalten.

model development

Modelle bereitstellen

Implementieren Sie schnell Produktionsmodelle für Batch-Inferenzen auf Apache Spark™ oder als REST-APIs mithilfe der integrierten Integration mit Docker-Containern, Azure ML oder Amazon SageMaker. Mit Managed MLflow auf Databricks können Sie Produktionsmodelle mit dem Databricks Jobs Scheduler und automatisch verwalteten Clustern operationalisieren und überwachen, um sie je nach Geschäftsanforderungen zu skalieren.

Die neuesten Upgrades für MLflow ermöglichen eine nahtlose Bereitstellung von Paket-GenAI-Anwendungen. Sie können jetzt Ihre Chatbots und andere GenAI-Anwendungen wie Dokumentzusammenfassung, Sentimentanalysen und Klassifizierung im Scale mithilfe von Databricks Model Serving anwenden.

Funktionen

icon-orange-Data-Parser-Normalizer-ETL-ELT

MLFLOW-VERFOLGUNG

MLflow-Verfolgung: Protokollieren Sie automatisch Parameter, Codeversionen, Kennzahlen und Artefakte für jeden Lauf mit Python , REST , R API und Java API

GENERATIVE KI-ENTWICKLUNG: Vereinfachen Sie die Modellentwicklung, um GenAI-Anwendungen für eine Vielzahl von Anwendungsfällen wie Chatbots, Dokumentzusammenfassung, Sentimentanalysen und Klassifizierung mit dem Deployment Server und der Evaluation UI von MLflowzu erstellen, unterstützt durch native Integration mit LangChain und nahtlose UI für schnelles Prototyping und Iteration.

MLflow-Tracking-Server: Mit einem integrierten Tracking-Server können Sie schnell alle Läufe und Experimente an einem Ort protokollieren. Keine Konfiguration auf Databricks erforderlich.

Experiment : Erstellen, sichern, organisieren, suchen und visualisieren Sie Experimente direkt im Arbeitsbereich mit Zugriffskontrolle und Suchanfragen.

MLFLOW Ausführung-SEITENLEISTE: Verfolgen Sie die Ausführung automatisch innerhalb des Notebooks und erfassen Sie für jede Ausführung einen Snapshot Ihres Notebook , sodass Sie jederzeit zu früheren Versionen Ihres Codes zurückkehren können.

Protokollieren von Daten mit Durchläufen: Protokollieren Sie Parameter, Datensätze, Metriken, Artefakte und mehr als Durchläufe in lokalen Dateien, in einer SQLAlchemy-kompatiblen Datenbank oder remote auf einem Tracking-Server.

Delta-Lake-Integration: Verfolgen Sie umfangreiche Datensätze, die Ihre Modelle mit Delta Lake-Schnappschüssen gespeist haben.

Artefaktspeicher: Speichern Sie große Dateien wie S3-Buckets, freigegebenes NFS-Dateisystem und Modelle in Amazon S3, im Azure Blob-Speicher, Google Cloud-Speicher, auf dem SFTP-Server, in NFS und lokalen Dateipfaden.

icon connectors

MLflow-Modelle

MLFLOW-MODELLE: Ein Standardformat für die Erstellung von ML-Modellen, das in einer Vielzahl von nachgelagerten Tools verwendet werden kann, z. B. Echtzeitbereitstellung über eine REST-API oder Batch-Inferenz auf Apache Spark.

Modellanpassung: Verwenden Sie Benutzerdefinierte Python-Modelle und Benutzerdefinierte Varianten für Modelle aus einer ML-Bibliothek, die von den in MLflow integrierten Varianten nicht explizit unterstützt werden.

integriert, eingebaut MODEL FLAVORS: MLflow bietet mehrere Standardvarianten, die in Ihren Anwendungen nützlich sein könnten, wie Python und R-Funktionen, Hugging Face, OpenAI und LangChain, PyTorch, Spark MLlib, TensorFlow und ONNX.

INTEGRIERTE BEREITSTELLUNGSTOOLS: Schnelle Bereitstellung in Databricks über Apache Spark UDF für einen lokalen Computer oder mehrere andere Produktionsumgebungen (z. B. Microsoft Azure ML, Amazon SageMaker) und Erstellen von Docker-Images zur Bereitstellung.

icon-orange-Join-Hints

MLflow-Modellregister

ZENTRALES repository: Registrieren Sie MLflow Modelle beim MLflow Model Registry. Ein registriertes Modell hat einen eindeutigen Namen, eine eindeutige Version, eine eindeutige Phase und andere Metadaten.

Modellversionierung: Verfolgen Sie automatisch die Versionen für registrierte Modelle, wenn diese aktualisiert werden.

MODELLPHASE: Jeder Modellversion wurden voreingestellte oder benutzerdefinierte Phasen zugewiesen, z. B. „Staging“ und „Production“, um den Lebenszyklus eines Modells darzustellen.

Integration von CI/CD-Workflows: Zeichnen Sie Phasenübergänge auf, fordern Sie Änderungen an, überprüfen und genehmigen Sie sie als Teil von CI/CD-Pipelines, um eine bessere Kontrolle und Steuerung zu gewährleisten.

Modellstufenübergänge: Erfassen Sie neue Registrierungsereignisse oder -änderungen als Aktivitäten, bei denen Benutzer, Änderungen und zusätzliche Metadaten wie Kommentare automatisch protokolliert werden.

icon

MLflow-Bereitstellungsserver

ZUGRIFF AUF LLMS REGELN: SaaS-LLM-Anmeldeinformationen verwalten.

KOSTEN KONTROLLIEREN: Richten Sie Ratenlimits ein.

STANDARDISIEREN SIE LLM INTERAKTIONEN: Experiment mit verschiedenen OSS/SaaS -LLMs mit standardmäßigen Eingabe-/Ausgabeschnittstellen für unterschiedliche Aufgaben: Vervollständigungen, Chat, Einbettungen.

Predictive maintenance

MLflow-Projekte

MLFLOW-PROJEKTE: In MLflow-Projekten können Sie die Software-Umgebung angeben, in der Ihr Code ausgeführt wird. MLflow unterstützt derzeit die folgenden Projektumgebungen: Conda-Umgebung, Docker-Container-Umgebung und Systemumgebung. Jedes Git-Repo- oder lokale Verzeichnis kann als MLflow-Projekt behandelt werden.

Remote-Ausführungsmodus: Führen Sie mithilfe der Databricks-CLI MLflow-Projekte von Git oder lokalen Quellen auf Databricks-Clustern aus, um Ihren Code schnell zu skalieren.

mlflow recipes

MLflow Recipes

VEREINFACHTER PROJEKTSTART: MLflow Recipes bietet sofort einsatzbereite verbundene Komponenten zum Erstellen und Bereitstellen von ML-Modellen.

BESCHLEUNIGTE MODELLITERATION: MLflow Recipes erstellt standardisierte, wiederverwendbare Schritte für die Modelliteration, wodurch der Prozess schneller und kostengünstiger wird.

AUTOMATISIERTE TEAMÜBERGABEN: Die Struktur bietet modularisierten, produktionsbereiten Code, der eine automatische Übergabe vom Experimentieren an die Produktion ermöglicht.

Sehen Sie sich doch unsere Produktneuigkeiten von Azure Databricks und AWS an, um mehr über unsere neuesten Funktionen zu erfahren.

Vergleichen von MLflow-Angeboten

Open Source MLflow

Managed MLflow on Databricks

Nachverfolgung von Experimenten

MLflow-Tracking-API

MLflow-Tracking-Server

Eigenes Hosting

Vollständig verwaltet

Notebooks-Integration

Workflow-Integration

Projekte reproduzieren

MLflow-Projekte

Git- und Conda-Integration

Skalierbare Cloud/Cluster für Projektdurchläufe

Modellverwaltung

MLflow-Modellregister

Modellversionierung

ACL-basierte Stage Transition

CI/CD-Workflow-Integrationen

Flexible Bereitstellung

Eingebaute Batch-Inferenz

MLflow-Modelle

Eingebaute Streaming-Analyse

Sicherheit und Management

Hochverfügbarkeit

Automatische Updates

Rollenbasierte Zugriffskontrolle

Wie es funktioniert

MLflow ist ein kompakter Satz von APIs und Benutzeroberflächen, die mit jedem ML-Framework im gesamten Workflow für Machine Learning verwendet werden können. Er umfasst vier Komponenten: MLflow Tracking, MLflow Projects, MLflow Models und MLflow Model Registry

Mehr über MLflow

managed mlflow
MLFLOW-VERFOLGUNG

Experiment aufzeichnen und abfragen: Code, Daten, Konfiguration und Ergebnisse.

Mehr Informationen
managed mlflow
MLflow-Projekte

Paketformat für reproduzierbare Durchläufe auf jeder Plattform.

Mehr Informationen
managed mlflow
MLflow-Modelle

Allgemeines Format zum Senden von Modellen an verschiedene Bereitstellungstools.

Mehr Informationen
managed mlflow
MLflow-Modellregister

Zentralisiertes Repository zur gemeinsamen Verwaltung von MLflow-Modellen über den gesamten Lebenszyklus hinweg.

Mehr Informationen

Managed MLflow auf Databricks

Managed MLflow auf Databricks ist eine vollständig verwaltete Version von MLflow , die Praktikern Reproduzierbarkeit und Experiment über Databricks -Notebook, Jobs und Datenspeicher hinweg bietet, mit der Zuverlässigkeit, Sicherheit und Skalierbarkeit der Databricks Data Intelligence Platform.

Dokumentation lesen

Log Your First Run as an Experiment MLflow

Ressourcen