Mosaic AI
Produktionsreife ML- und GenAI-Anwendungen erstellen und implementieren
Databricks Mosaic AI bietet einheitliche Tools zum Erstellen, Implementieren und Überwachen von KI- und ML-Lösungen – vom Aufbau prädiktiver Modelle bis hin zu den neuesten GenAI-Modellen und LLMs (Large Language Models). Mosaic AI setzt auf der Databricks Data Intelligence Platform auf und unterstützt Unternehmen dabei, ihre Daten sicher und kostengünstig in den KI-Lebenszyklus zu integrieren.
Umfassende Kontrolle
Modelle und Daten im Griff behalten
Produktionsqualität
Sichere und fehlerfreie KI-Anwendungen mit Governance implementieren
Niedrigere Kosten
Eigene maßgeschneiderte LLMs trainieren und bereitstellen – zu einem Zehntel des Preises
Entwickeln Sie jetzt Ihre GenAI-Lösung
Es gibt vier Architekturmuster, die beim Aufbau einer LLM-basierten Lösung berücksichtigt werden müssen: Prompt Engineering, Retrieval Augmented Generation (RAG), Fine-Tuning und Pre-Training. Databricks ist der einzige Anbieter, der alle vier GenAI-Architekturmuster unterstützt. Damit haben Sie die meisten Optionen und können sich entsprechend Ihren geschäftlichen Anforderungen weiterentwickeln.
Volle Kontrolle über Ihre Modelle und Daten
Mosaic AI ist Teil der Databricks Data Intelligence Platform, die Daten, Modelltraining und Produktionsumgebungen in einer zentralen Lösung zusammenführt. Sie können Ihre Unternehmensdaten sicher nutzen, um Ihre eigenen Machine-Learning- und GenAI-Modelle zu verbessern, zu verfeinern oder aufzubauen. So vermitteln Sie Ihren Modellen ein semantisches Verständnis Ihres Unternehmens, ohne Ihre Daten und Ihr geistiges Eigentum nach außen tragen zu müssen.
Alle Ihre KI-Modelle zentral implementieren und verwalten
Model Serving ist ein einheitlicher Service für Implementierung, Governance und Abfrage von KI-Modellen. Unser einheitlicher Ansatz macht das Experimentieren mit Modellen und ihre Einführung in die Produktion ganz einfach. Das gilt für:
- Benutzerdefinierte ML-Modelle wie PyFunc, scikit-learn und LangChain
- Foundation-Modelle (FMs) auf Databricks wie Llama 2, MPT, Mistral und BGE
- Foundation-Modelle, die andernorts gehostet werden, wie ChatGPT, Claude 2, Cohere und Stable Diffusion
Daten, Funktionen und KI-Modelle an zentraler Stelle beobachten
Lakehouse Monitoring stellt eine zentrale, vereinheitlichte Überwachungslösung innerhalb der Databricks Data Intelligence Platform dar. Monitoring überwacht die statistischen Eigenschaften und die Qualität aller Tabellen mit einem einzigen Klick. Bei Anwendungen, die mit generativer KI arbeiten, kann die Funktion Ausgaben auf toxische und unsichere Inhalte prüfen und Fehler diagnostizieren.
Herkunft über den gesamten KI-Lebenszyklus kontrollieren und beobachten – von den Daten bis hin zu den Modellen
Setzen Sie die passenden Berechtigungen durch, legen Sie Obergrenzen fest und verfolgen Sie die Herkunft der Daten, um strenge Sicherheits- und Governance-Anforderungen zu erfüllen. Alle ML-Assets – von den Daten bis hin zu den Modellen – können mit Unity Catalog als einzigem Tool verwaltet werden, um in jeder Phase des ML-Lebenszyklus von der Entwicklung über die Bereitstellung bis hin zur Wartung konsistente Beaufsichtigung und Kontrolle zu gewährleisten.
Eigene maßgeschneiderte LLMs trainieren und bereitstellen – zu einem Zehntel des Preises
Mit Mosaic AI können Sie Ihr eigenes Large Language Model von Grund auf neu aufbauen. Damit soll sichergestellt werden, dass das Basiswissen des Modells auf Ihr ganz spezielles Fachgebiet zugeschnitten ist. Durch das Training mit Ihrem geistigen Eigentum unter Verwendung Ihrer Daten entsteht ein maßgeschneidertes Modell, das sich grundlegend von anderen Modellen unterscheidet. Databricks Mosaic AI Training ist eine optimierte Trainingslösung, mit der neue LLMs mit mehreren Milliarden Parametern in nur wenigen Tagen und mit bis zu zehnfach niedrigeren Trainingskosten erstellt werden können.
Produktkomponenten
Kollaborative Notebooks
Databricks Notebooks unterstützen Python, R, SQL und Scala nativ, d. h., Anwender können unter Verwendung der Sprachen und Bibliotheken ihrer Wahl zusammenarbeiten, um aussagekräftige Erkenntnisse zu gewinnen, zu visualisieren und zu teilen.
Runtime for Machine Learning
1-Klick-Zugriff auf vorkonfigurierte und ML-optimierte Cluster, die auf einer skalierbaren und zuverlässigen Verteilung der gängigsten ML-Frameworks (wie PyTorch, TensorFlow und scikit-learn) basieren – mit integrierten Optimierungen für unübertroffene Leistung auch bei enormen Datenmengen.
Feature-Store
Vereinfachen Sie die Wiederverwendung von Funktionen mit einer auf der Datenherkunft basierenden Funktionenssuche, die automatisch protokollierte Datenquellen heranzieht. Stellen Sie Funktionen für Training und Bereitstellung mit einer vereinfachten Modellbereitstellung zur Verfügung, für die keine Änderungen an der Client-Anwendung erforderlich sind.
AutoML
Ermöglichen Sie allen Akteuren vom ML-Experten bis hin zum Citizen Data Scientist die Mitwirkung. Hierzu wurde ein „Glass-Box-Ansatz“ für AutoML implementiert, der nicht nur das leistungsstärkste Modell bereitstellt, sondern auch Code zur weiteren Optimierung durch Experten erzeugt.
Managed MLflow
Managed MLflow baut auf MLflow, der weltweit führenden Open-Source-Plattform für den ML-Lebenszyklus, auf und hilft beim schnellen Überführen von ML-Modellen aus der Experimentierphase in die Produktion – mit Sicherheit, Zuverlässigkeit und Skalierbarkeit auf Unternehmensniveau.
Bereitstellen von produktionsbereiten Modellen
Stellen Sie Modelle in jeder Größenordnung mit einem Klick zur Verfügung, mit der Option, serverloses Computing zu nutzen.
Modellüberwachung
Überwachen Sie die Modellleistung und beobachten Sie in Echtzeit, wie sie sich auf Geschäftsmetriken auswirkt. Databricks bietet durchgängige Transparenz und Herkunft von Modellen in der Produktion bis hin zu Quelldatensystemen und hilft dabei, die Modell- und Datenqualität über den gesamten ML-Lebenszyklus hinweg zu analysieren und Probleme zu lokalisieren, bevor sie schädliche Auswirkungen haben.
Repositorys
Mithilfe von Repositorys können Engineers Git-Workflows in Databricks nachstellen und Datenteams so die Nutzung automatisierter CI/CD-Workflows und das Portieren von Code ermöglichen.
Große Sprachmodelle
Mit Databricks ist es ganz einfach, LLMs zu implementieren, zu steuern, abzufragen, den Zugriff darauf zu überwachen und sie in Ihre Arbeitsabläufe zu integrieren. Darüber hinaus bietet die Plattform Funktionen zur Anreicherung (RAG) oder für das Fine-Tuning von LLMs mit Ihren eigenen Daten, wodurch die Performance im jeweiligen Fachbereich verbessert wird. Außerdem bieten wir optimierte Tools an, mit denen Sie Ihre eigenen LLMs in wenigen Tagen vortrainieren können – und das zu einem Zehntel der vorherigen Kosten.