Mosaic AI
Produktionsreife ML- und GenAI-Anwendungen erstellen und implementieren
Databricks Mosaic AI bietet einheitliche Tools zum Erstellen, Implementieren, Bewerten und Verwalten von KI- und ML-Lösungen – von der Erstellung von Predictive-ML-Modellen bis hin zu den neuesten GenAI-Apps. Mosaic AI setzt auf der Databricks Data Intelligence Platform auf und ermöglicht es Unternehmen, sicher und kostengünstig KI-Apps in Produktionsqualität zu entwickeln, die ihre Unternehmensdaten integrieren.
Produktionsqualität
Sichere und fehlerfreie KI-Anwendungen mit Governance implementieren
Umfassende Kontrolle
Modelle und Daten im Griff behalten
Niedrigere Kosten
Eigene maßgeschneiderte LLMs trainieren und bereitstellen – zu einem Zehntel des Preises
Entwickeln Sie jetzt Ihre GenAI-Lösung
Es gibt vier Architekturmuster, die beim Aufbau einer auf einem Large Language Model(LLM) basierten Lösung berücksichtigt werden müssen: Prompt Engineering, Retrieval Augmented Generation (RAG), Fine-Tuning und Pre-Training. Databricks ist der einzige Anbieter, der alle vier GenAI-Architekturmuster unterstützt. Damit haben Sie die meisten Optionen und können sich entsprechend Ihren geschäftlichen Anforderungen weiterentwickeln.
Volle Kontrolle über Ihre Modelle und Daten
Mosaic AI ist Teil der Databricks Data Intelligence Platform, die Daten, Modelltraining und Produktionsumgebungen in einer zentralen Lösung zusammenführt. Sie können Ihre Unternehmensdaten sicher nutzen, um Ihre eigenen Machine-Learning- und GenAI-Modelle zu verbessern, zu verfeinern oder aufzubauen. So vermitteln Sie Ihren Modellen ein semantisches Verständnis Ihres Unternehmens, ohne Ihre Daten und Ihr geistiges Eigentum nach außen tragen zu müssen.
Alle Ihre KI-Modelle zentral implementieren und verwalten
Model Serving ist ein einheitlicher Service für Implementierung, Governance und Abfrage von KI-Modellen. Unser einheitlicher Ansatz macht das Experimentieren mit Modellen und ihre Einführung in die Produktion ganz einfach. Das gilt für:
- Benutzerdefinierte ML-Modelle wie PyFunc, scikit-learn und LangChain
- Foundation-Modelle (FMs) auf Databricks wie Llama 3, MPT, Mistral und BGE
- Foundation-Modelle, die andernorts gehostet werden, wie ChatGPT, Claude 3, Cohere und Stable Diffusion
Daten, Funktionen und KI-Modelle an zentraler Stelle beobachten
Lakehouse Monitoring stellt eine zentrale, vereinheitlichte Überwachungslösung innerhalb der Databricks Data Intelligence Platform dar. Monitoring überwacht die statistischen Eigenschaften und die Qualität aller Tabellen mit einem einzigen Klick. Bei Anwendungen, die mit generativer KI arbeiten, kann die Funktion Ausgaben auf toxische und unsichere Inhalte prüfen und Fehler diagnostizieren.
Herkunft über den gesamten KI-Lebenszyklus kontrollieren und beobachten – von den Daten bis hin zu den Modellen
Setzen Sie die passenden Berechtigungen durch, legen Sie Obergrenzen fest und verfolgen Sie die Herkunft der Daten, um strenge Sicherheits- und Governance-Anforderungen zu erfüllen. Alle ML-Assets – von den Daten bis hin zu den Modellen – können mit Unity Catalog als einzigem Tool verwaltet werden, um in jeder Phase des ML-Lebenszyklus von der Entwicklung über die Bereitstellung bis hin zur Wartung konsistente Beaufsichtigung und Kontrolle zu gewährleisten.
Eigene maßgeschneiderte LLMs trainieren und bereitstellen – zu einem Zehntel des Preises
Mit Mosaic AI können Sie Ihr eigenes Large Language Model von Grund auf neu aufbauen. Damit soll sichergestellt werden, dass das Basiswissen des Modells auf Ihr ganz spezielles Fachgebiet zugeschnitten ist. Durch das Training mit Ihrem geistigen Eigentum unter Verwendung Ihrer Daten entsteht ein maßgeschneidertes Modell, das sich grundlegend von anderen Modellen unterscheidet. Databricks Mosaic AI Training ist eine optimierte Trainingslösung, mit der neue LLMs mit mehreren Milliarden Parametern in nur wenigen Tagen und mit bis zu zehnfach niedrigeren Trainingskosten erstellt werden können.
Produktkomponenten
Kollaborative Notebooks
Databricks Notebooks unterstützen Python, R, SQL und Scala nativ, d. h., Anwender können unter Verwendung der Sprachen und Bibliotheken ihrer Wahl zusammenarbeiten, um aussagekräftige Erkenntnisse zu gewinnen, zu visualisieren und zu teilen.
Runtime for Machine Learning
1-Klick-Zugriff auf vorkonfigurierte und ML-optimierte Cluster, die auf einer skalierbaren und zuverlässigen Verteilung der gängigsten ML-Frameworks (wie PyTorch, TensorFlow und scikit-learn) basieren – mit integrierten Optimierungen für unübertroffene Leistung auch bei enormen Datenmengen.
Feature-Store
Vereinfachen Sie die Wiederverwendung von Funktionen mit einer auf der Datenherkunft basierenden Funktionenssuche, die automatisch protokollierte Datenquellen heranzieht. Stellen Sie Funktionen für Training und Bereitstellung mit einer vereinfachten Modellbereitstellung zur Verfügung, für die keine Änderungen an der Client-Anwendung erforderlich sind.
Repositorys
Mithilfe von Repositorys können Engineers Git-Workflows in Databricks nachstellen und Datenteams so die Nutzung automatisierter CI/CD-Workflows und das Portieren von Code ermöglichen.
Große Sprachmodelle
Mit Databricks ist es ganz einfach, LLMs zu implementieren, zu verwalten, abzufragen, den Zugriff darauf zu überwachen und sie in Ihre Arbeitsabläufe zu integrieren. Darüber hinaus bietet die Plattform Funktionen für Retrieval Augmented Generation (RAG) oder für das Fine-Tuning von LLMs mit Ihren eigenen Daten, wodurch die Performance im jeweiligen Fachbereich verbessert wird. Außerdem bieten wir optimierte Tools an, mit denen Sie Ihre eigenen LLMs in wenigen Tagen vortrainieren können – und das zu einem Zehntel der vorherigen Kosten.