Data + AI Summit 2022: June 27–30, Moscone Center + Virtual Image

Data + AI Summit 2022: June 27–30, Moscone Center + Virtual

Join us for unique community-driven content, deep technical training and outstanding speakers like Andrew Ng and Ali Ghodsi.

Machine Learning

Eine datennative und kollaborative ML-Lösung für den gesamten ML-Lebenszyklus

Kostenlos testen Planen Sie eine Demo

Hintergrundbild

Databricks Machine Learning basiert auf einer offenen Lakehouse-Architektur. Die Lösung unterstützt ML-Teams bei der Aufbereitung und Verarbeitung von Daten, optimiert die teamübergreifende Zusammenarbeit und standardisiert den gesamten Lebenszyklus von der Experimentierphase bis zur Produktion.

Diagramm „Offenes Data Lakehouse“

Diagramm „MLflow-Prognosekennzahlen“

Alle Datenaspekte für ML vereinfachen

Da Databricks ML auf einer offenen Lakehouse-Grundlage mit Delta Lake aufsetzt, ermöglichen Sie es Ihren Machine-Learning-Teams damit, auf Daten jeglichen Typs und Umfangs zuzugreifen, sie zu untersuchen und aufzubereiten. Verwandeln Sie Funktionen in Produktionspipelines mit Self-Service-Unterstützung, ohne auf den Support Ihrer Data Engineers angewiesen zu sein.

Tracking und Governance für Experimente automatisieren

Managed MLflow verfolgt Ihre Experimente automatisch und protokolliert Parameter, Kennzahlen, die Versionierungen von Daten und Code sowie Modellartefakte bei jedem Trainingsdurchlauf. Sie können frühere Durchläufe unkompliziert einsehen, Ergebnisse vergleichen und frühere Resultate nach Bedarf reproduzieren. Sobald Sie die für die Produktion am besten geeignete Modellversion ermittelt haben, registrieren Sie sie in der Modellregistrierung, um die Übergabe während des Bereitstellungslebenszyklus einfacher zu gestalten.

Experiment automatisieren (Beispiel)

Aktivitäten (Beispiel)

Den Modelllebenszyklus vollständig mit der Modellregistrierung verwalten

Nach der Registrierung der trainierten Modelle können Sie sie mit der Modellregistrierung während des gesamten Lebenszyklus kollaborativ verwalten. Modelle können versioniert werden und verschiedene Stadien durchlaufen, z. B. Experimentieren, Staging, Produktion und Archivierung. Das Lebenszyklusmanagement lässt sich in Genehmigungs- und Governance-Workflows mit rollenbasierter Zugriffskontrolle integrieren. Kommentare und E-Mail-Benachrichtigungen ermöglichen eine intensive Zusammenarbeit der Datenteams.

ML-Modelle in großem Umfang mit niedriger Latenz bereitstellen

Aus dem Modellregister können Sie schnell Produktionsmodelle bereitstellen. Dabei können Sie bei umfangreichen Modellen das Batch-Scoring oder aber Databricks Serving für eine latenzarme Online-Bereitstellung in Form von REST-API-Endpunkten nutzen. Da das Modellregister auf dem MLflow-Modellformat beruht, profitiert es von Ökosystemintegrationen für eine Vielzahl von Bereitstellungen. So lassen sich beispielsweise Docker-Container auf Kubernetes bereitstellen, oder ein Modell kann in ein Gerät geladen werden.

Diagramm „MLflow-Modellregister“

Hintergrundbild

Produktkomponenten

astrazeneca

Kundenbericht

KI zeigt neue Wege in der Arzneimittelforschung auf

AstraZeneca nutzt Daten und NLP, um Wissenschaftlern dabei zu helfen, neue Medikamente zu erforschen

HSBC

Kundenbericht

Mobile-Banking neu gedacht – mit ML

So wickelt HSBC für über 39 Mio. Kunden bargeldlose Transaktionen mit ML-gestützter Betrugserkennung ab

Starbucks

Kundenbericht

Brewing data and AI at scale

Mit Databricks bietet Starbucks in seinen 30.000 Filialen ein kanalübergreifendes Kundenerlebnis

Comcast

Kundenbericht

Die Zukunft des Entertainments mit KI

Comcast bietet sein Emmy-prämiertes TV-Erlebnis mit KI-gestützter Sprachfernbedienung

Möchten Sie loslegen?