Machine Learning

Eine datennative und kollaborative ML-Lösung für den gesamten ML-Lebenszyklus

Kostenlos testen Planen Sie eine Demo

Hintergrundbild

Dive deeper into Machine Learning on Databricks

Databricks Machine Learning basiert auf einer offenen Lakehouse-Architektur. Die Lösung unterstützt ML-Teams bei der Aufbereitung und Verarbeitung von Daten, optimiert die teamübergreifende Zusammenarbeit und standardisiert den gesamten Lebenszyklus von der Experimentierphase bis zur Produktion.

Diagramm „Offenes Data Lakehouse“

Diagramm „MLflow-Prognosekennzahlen“

Alle Datenaspekte für ML vereinfachen

Da Databricks ML auf einer offenen Lakehouse-Grundlage mit Delta Lake aufsetzt, ermöglichen Sie es Ihren Machine-Learning-Teams damit, auf Daten jeglichen Typs und Umfangs zuzugreifen, sie zu untersuchen und aufzubereiten. Verwandeln Sie Funktionen in Produktionspipelines mit Self-Service-Unterstützung, ohne auf den Support Ihrer Data Engineers angewiesen zu sein.

Tracking und Governance für Experimente automatisieren

Managed MLflow verfolgt Ihre Experimente automatisch und protokolliert Parameter, Kennzahlen, die Versionierungen von Daten und Code sowie Modellartefakte bei jedem Trainingsdurchlauf. Sie können frühere Durchläufe unkompliziert einsehen, Ergebnisse vergleichen und frühere Resultate nach Bedarf reproduzieren. Sobald Sie die für die Produktion am besten geeignete Modellversion ermittelt haben, registrieren Sie sie in der Modellregistrierung, um die Übergabe während des Bereitstellungslebenszyklus einfacher zu gestalten.

Experiment automatisieren (Beispiel)

Aktivitäten (Beispiel)

Den Modelllebenszyklus vollständig mit der Modellregistrierung verwalten

Nach der Registrierung der trainierten Modelle können Sie sie mit der Modellregistrierung während des gesamten Lebenszyklus kollaborativ verwalten. Modelle können versioniert werden und verschiedene Stadien durchlaufen, z. B. Experimentieren, Staging, Produktion und Archivierung. Das Lebenszyklusmanagement lässt sich in Genehmigungs- und Governance-Workflows mit rollenbasierter Zugriffskontrolle integrieren. Kommentare und E-Mail-Benachrichtigungen ermöglichen eine intensive Zusammenarbeit der Datenteams.

ML-Modelle in großem Umfang mit niedriger Latenz bereitstellen

Aus dem Modellregister können Sie schnell Produktionsmodelle bereitstellen. Dabei können Sie bei umfangreichen Modellen das Batch-Scoring oder aber Databricks Serving für eine latenzarme Online-Bereitstellung in Form von REST-API-Endpunkten nutzen. Da das Modellregister auf dem MLflow-Modellformat beruht, profitiert es von Ökosystemintegrationen für eine Vielzahl von Bereitstellungen. So lassen sich beispielsweise Docker-Container auf Kubernetes bereitstellen, oder ein Modell kann in ein Gerät geladen werden.

Diagramm „MLflow-Modellregister“

Hintergrundbild

Produktkomponenten

AstraZeneca

Kundenbericht

KI zeigt neue Wege in der Arzneimittelforschung auf

AstraZeneca leverages data and NLP to help scientists research novel drugs

HSBC

Kundenbericht

Mobile-Banking neu gedacht – mit ML

So wickelt HSBC für über 39 Mio. Kunden bargeldlose Transaktionen mit ML-gestützter Betrugserkennung ab

Starbucks

Kundenbericht

Brewing data and AI at scale

Mit Databricks bietet Starbucks in seinen 30.000 Filialen ein kanalübergreifendes Kundenerlebnis

Comcast

Kundenbericht

Die Zukunft des Entertainments mit KI

Comcast bietet sein Emmy-prämiertes TV-Erlebnis mit KI-gestützter Sprachfernbedienung

Möchten Sie loslegen?