JUNE 27-30

Jetzt registrieren

Kollaborative Data Science

Ein einheitliches Erlebnis zur Steigerung der Produktivität und Agilität von Data Science

Data Scientists stehen während des gesamten Data Science-Workflows vor zahlreichen Herausforderungen, die die Produktivität behindern. Da Unternehmen immer datengesteuerter werden, ist eine kollaborative Umgebung für einen leichteren Zugang zu den Daten und einen besseren Einblick in die Daten, die mit den Daten trainierten Modelle, die Reproduzierbarkeit und die in den Daten aufgedeckten Einblicke von entscheidender Bedeutung.

Die Herausforderung

VORHER

  • Datenerkundung in großem Maßstab ist schwierig und kostspielig
  • Zu hoher Zeitaufwand bei der Verwaltung von Infrastruktur und DevOps

  • Für weitere Analytics müssen verschiedene Open-Source-Bibliotheken und -Tools zusammengeführt werden.
  • Mehrfache Übergaben zwischen Data Engineering- und Data Science-Teams sind fehleranfällig und erhöhen die Risiken
  • Schwieriger Übergang von lokaler zu Cloud-basierter Entwicklung aufgrund komplexer ML-Umgebungen und Abhängigkeiten

Die Lösung

DANACH

  • Schneller Zugriff auf saubere und zuverlässige Daten für nachgelagerte Analytics
  • Zugriff mit einem Klick auf vorkonfigurierte Cluster aus dem Data Science-Workspace
  • Mitbringen Ihrer eigenen Umgebung und mehrsprachiger Support für maximale Flexibilität
  • Ein einheitlicher Ansatz zur Rationalisierung des gesamten Data-Science-Workflows von der Datenvorbereitung bis zur Modellierung und Weitergabe von Einblicken
  • Migrieren oder Ausführen Ihres Codes per Fernzugriff auf vorkonfigurierten und anpassbaren ML-Clustern

Databricks für Data Science

Eine offene und einheitliche Plattform für die gemeinsame Ausführung aller Arten von Analytics-Workloads, von der Datenvorbereitung
bis hin zu explorativen Analysen und vorausschauenden Analysen in großem Maßstab.

vorheriger Pfeil
Slide 1
Slide 2
Slide 3
Folie 4
Folie 5
nächster Pfeil

Kollaborative Data Science im großen Maßstab

Zusammenarbeit im gesamten Data Science-Workflow und darüber hinaus

Mit Databricks Notebooks entwickeln Sie gemeinsam Code in Python, R, Scala und SQL, analysieren Daten mittels interaktiver Visualisierung und gewinnen neue Einblicke.

Geben Sie Ihren Code sicher und ohne Bedenken frei – mit Co-Authoring, Kommentierung, automatischer Versionierung, Git-Integrationen und rollenbasierten Zugriffskontrollen.

Behalten Sie alle Experimente und Modelle an einem Ort im Blick, erfassen Sie Wissen, veröffentlichen Sie Dashboards und erleichtern Sie die Übergabe an Kollegen und Beteiligte im gesamten Workflow – von Rohdaten bis hin zu Einblicken.

Mehr Informationen

Schwerpunktlegung auf Data Science (statt der Infrastruktur)

Künftig sind Sie nicht mehr auf die Datenspeicherkapazität Ihres Laptops oder die Ihnen zur Verfügung stehende Rechenleistung beschränkt.

Migrieren Sie mithilfe von Conda Ihre lokale Umgebung schnell in die Cloud
und verbinden Sie Notebooks mit automatisch verwalteten Clustern, um Ihre Analytics-Workloads nach Bedarf zu skalieren.

Mehr Informationen

Verwendung von PyCharm, Jupyter Lab oder RStudio mit skalierbarer Datenverarbeitung

Wir wissen, wie beschäftigt Sie sind ... Sie haben wahrscheinlich bereits Hunderte von Projekten auf Ihrem Laptop und sind an ein bestimmtes Toolset gewöhnt.

Verbinden Sie Ihre bevorzugte IDE mit Databricks, um künftig von unbegrenztem Datenspeicher und unbeschränkter Rechenleistung zu profitieren. Alternativ verwenden Sie RStudio oder JupyterLab einfach direkt innerhalb von Databricks. So wird das Nutzungserlebnis nahtlos.

Mehr Informationen

Get data ready for data science

Bereinigen und katalogisieren Sie alle Ihre Daten an einem Ort mit Delta Lake: ob Batch, Streaming, strukturiert oder unstrukturiert, und machen Sie sie für Ihr gesamtes Unternehmen über einen zentralen Datenspeicher auffindbar.

Wenn die Daten eingehen, wird durch Qualitätsprüfungen sichergestellt, dass die Daten für die Analytics bereit sind. Wenn sich Daten durch das Ergänzen neuer Daten und weitere Transformationen fortentwickeln, stellt die Datenversionierung sicher, dass Sie alle Compliance-Anforderungen erfüllen können.

Mehr Informationen

Neue Einblicke schnell entdecken und teilen

Sie haben die ganze Arbeit gemacht und neue Einblicke mit integrierten interaktiven Visualisierungen oder einer anderen unterstützten Bibliothek wie matplotlib oder ggplot ermittelt.

Verwandeln Sie Ihre Analyse im Handumdrehen in ein dynamisches Dashboard, um Ergebnisse schnell und einfach weiterzugeben und zu exportieren. Die Dashboards sind immer auf dem neuesten Stand und können auch interaktive Abfragen durchführen.

Zellen, Visualisierungen oder Notebooks können mit rollenbasierter Zugriffskontrolle geteilt und in verschiedenen Formaten wie HTML oder IPython Notebook exportiert werden.

Mehr Informationen

Einfacher Zugriff auf die neuesten ML-Frameworks

Legen Sie schnell los – mit einem Klick Zugriff auf einsatzbereite und optimierte Umgebungen für Machine Learning, einschließlich der beliebtesten Frameworks wie scikit-learn, XGBoost, TensorFlow, Keras und mehr. Oder migrieren und passen Sie ML-Umgebungen mühelos mit Conda an. Die vereinfachte Skalierung von Databricks hilft Ihnen, mühelos von kleinen zu großen Daten zu wechseln, sodass Sie nicht mehr durch die Datenmenge auf Ihrem Laptop eingeschränkt sind.

Die ML Runtime bietet integrierte AutoML-Funktionen, einschließlich Hyperparameter-Tuning, Modellsuche und vieles mehr, um den Data Science-Workflow zu beschleunigen. Beschleunigen Sie zum Beispiel die Trainingszeit mit integrierten Optimierungen für die am häufigsten verwendeten Algorithmen und Frameworks, einschließlich logistischer Regression, baumbasierter Modelle und GraphFrames.

Mehr Informationen

Automatisches Verfolgen und Reproduzieren von Ergebnissen

Verfolgen Sie Experimente automatisch aus beliebigen Frameworks und protokollieren Sie Parameter, Ergebnisse und Code-Versionen für jede Ausführung mit verwaltetem MLflow.

Sichere gemeinsame Nutzung, Erkennung und Visualisierung aller Experimente in Arbeitsbereichen, Projekten oder bestimmten Notebooks mit Tausenden von Durchläufen und mehreren Mitwirkenden.

Vergleichen Sie Ergebnisse mit Such-, Sortier-, Filter- und erweiterten Visualisierungen, um die beste Version Ihres Modells zu finden, und kehren Sie für diese spezifische Ausführung schnell zur richtigen Version Ihres Codes zurück.

Mehr Informationen

Operationalisierung in großem Umfang

Planen Sie Notebooks, um Datenumwandlungen und Modellierungen automatisch durchzuführen und aktuelle Ergebnisse zu teilen.

Richten Sie Alarmmeldungen ein und greifen Sie schnell auf Audit-Protokolle zu, um die Überwachung und Fehlersuche zu erleichtern.

Mehr Informationen

Kundenberichte

Millioneneinsparungen bei der Bestandsverwaltung

Shell hat weltweit ein Data-Science-Tool implementiert, mit dem es das Ersatzteilinventar von 1 Mrd. US-Dollar verwalten und optimieren kann, falls etwas kaputtgeht.

Möchten Sie loslegen?

Gartner names Databricks a Leader

Mehr Infos

AutoML Rapid, simplified machine learning for everyone

Mehr Infos

The Big Book of Data Science Use Cases

Mehr Infos