Machine Learning Runtime

Die sofort einsatzbereite und optimierte Machine-Learning-Umgebung

Die Machine Learning Runtime (MLR) bietet Data Scientists und ML-Anwendern skalierbare Cluster mit gängigen Frameworks, integriertem AutoML und Optimierungen – und damit unerreichte Performance.

Vorteile

FRAMEWORKS NACH WUNSCH

ML-Frameworks entwickeln sich rasant weiter und die Anwender müssen durchschnittlich 8 Bibliotheken verwalten. ML Runtime bietet per Mausklick Zugriff auf eine zuverlässige und performante Verteilung der gängigsten ML-Frameworks und benutzerdefinierten ML-Umgebungen über vorgefertigte Container oder Conda.

AUGMENTIERTES MACHINE LEARNING

Beschleunigen Sie das Machine Learning von der Datenvorbereitung bis zur Schlussfolgerung mit den integrierten AutoML-Funktionen, einschließlich Hyperparameter-Tuning und Modellsuche mit Hyperopt und MLflow.

VEREINFACHTE SKALIERUNG

Mit einer automatisch verwalteten und skalierbaren Cluster-Infrastruktur können Sie mühelos von kleinen zu großen Datenmengen wechseln. Machine Learning Runtime enthält auch einzigartige Leistungsverbesserungen für die gängigsten Algorithmen sowie HorovodRunner, eine einfache API für verteiltes Deep Learning.

Funktionen

FRAMEWORKS NACH WUNSCH

Conda Managed Runtime: Profitieren Sie von der Conda-Integration für die Python-Paketverwaltung. Alle Python-Pakete werden in einer einzigen Umgebung installiert.

ML-Frameworks: Die beliebtesten ML-Bibliotheken und -Frameworks, einschließlich TensorFlow, Keras, PyTorch, MLflow, Horovod, GraphFrames, ScikitLearn, XGboost, Numpy, MLeap und Pandas, werden standardmäßig bereitgestellt.

AUGMENTIERTES ML

Verfolgung automatisierter Experimente: Verfolgen, vergleichen und visualisieren Sie Hunderttausende von Experimenten mit Open Source oder Managed MLflow und der Funktion zur Darstellung paralleler Koordinaten.

Automatisierte Modellsuche (für Single-Node-ML): Optimierte und verteilte bedingte Hyperparametersuche über mehrere Modellarchitekturen mit erweitertem Hyperopt und automatisiertem Tracking für MLflow.

Automatisiertes Hyperparameter-Tuning für Single-Node-Machine-Learning: Optimierte und verteilte Hyperparametersuche mit erweitertem Hyperopt und automatisiertem Tracking für MLflow.

Automatisiertes Hyperparameter-Tuning für verteiltes Machine Learning: Tiefe Integration in die Cross Validation von PySpark MLlib zur automatischen Verfolgung von MLlib-Experimenten in MLflow.

OPTIMIERT FÜR VEREINFACHTE SKALIERUNG

TensorFlow optimiert: Profitieren Sie von der CUDA-optimierten Version von TensorFlow auf GPU-Clustern für maximale Leistung.

HorovodRunner: Rüsten Sie schnell und unkompliziert Ihren Deep Learning-Trainingscode für Einzelknoten auf – damit er über HorovodRunner in einem Databricks-Cluster laufen kann. HorovodRunner ist eine einfache API, die Komplikationen, die bei der Verwendung von Horovod für verteiltes Training entstehen, abstrahieren kann.

Optimierte logistische Regression und Baumklassifizierung für MLlib: Zu Databricks Runtime für Machine Learning gehört auch die Optimierung der bekanntesten Estimators. Im Vergleich mit Apache Spark 2.4.0, können Sie hier nun eine um bis zu 40 Prozent höhere Geschwindigkeit erzielen.

Optimierte GraphFrames: Führen Sie GraphFrames zwei- bis viermal schneller aus und profitieren Sie von einer bis zu 100-fachen Beschleunigung bei Graph-Abfragen – je nach Workloads und Datenintegrität.

Optimierter Speicher für Deep-Learning-Workloads: Das Laden von Daten und die Kontrolle von Modellen sind für das Training von Deep-Learning-Workloads von entscheidender Bedeutung. Nutzen Sie hierzu deshalb besonders leistungsstarke Lösungen basierend auf Azure und AWS.

Wie es funktioniert

Machine Learning Runtime baut auf Databricks Runtime auf. Mit jeder neuen Version von Databricks Runtime erhält es dementsprechend auch ein Update. Erhältlich ist es für die gesamte Databricks-Produktpalette wie Azure Databricks, AWS-Cloud, GPU-Cluster und CPU-Cluster.

Wenn Sie ML Runtime nutzen möchten, wählen Sie beim Erstellen Ihres Clusters einfach die ML-Version von Runtime aus.

Kundenberichte

Sehen Sie sich den Spark + AI Summit Talk an.

Simplify Distributed TensorFlow Training for Fast Image Categorization at Starbucks

Möchten Sie loslegen?


Folgen Sie der Kurzanleitung