Databricks Mosaic AI fornisce strumenti unificati per creare, implementare, valutare e governare soluzioni di AI e ML, dalla creazione di modelli di machine learning predittivo alle più recenti app di GenAI. Basato sulla Databricks Data Intelligence Platform, Mosaic AI consente alle organizzazioni di creare in modo sicuro ed economico app di AI di qualità di produzione integrate con i dati aziendali.
Qualità produttiva
Fornisci applicazioni di AI precise, sicure e gestite
Controllo completo
Mantieni la proprietà di modelli e dati
Costi minori
Addestramento e serving dei tuoi LLM personalizzati a un costo 10 volte inferiore
Inizia a costruire le tue soluzioni di AI generativa
Esistono quattro modelli architetturali da considerare quando si crea una soluzione basata su modelli linguistici di grandi dimensioni (LLM): l'ingegneria dei prompt, la generazione potenziata dal recupero (RAG), l'ottimizzazione e il pre-addestramento. Databricks è l'unico provider che abilita tutti e quattro i modelli architetturali per l'AI generativa, mettendo a tua disposizione un amplissimo ventaglio di opzioni e garantendo che i tuoi modelli possano evolvere man mano che le tue esigenze aziendali cambiano.
Mantieni la proprietà di modelli e dati
Mosaic AI è parte della Databricks Data Intelligence Platform, che unifica dati, addestramento di modelli e ambienti di produzione in un'unica soluzione. Puoi utilizzare in modo sicuro i tuoi dati aziendali per ampliare, ottimizzare o creare i tuoi modelli di machine learning e AI generativa, potenziandoli con una comprensione semantica della tua attività senza inviare dati e IP all'esterno.
Distribuisci e gestisci tutti i tuoi modelli AI a livello centrale
Model Serving è un servizio unificato per la distribuzione, la gestione e l'interrogazione dei modelli AI. Il nostro approccio onnicomprensivo, che semplifica la sperimentazione e la produzionalizzazione dei modelli, include:
- Modelli ML personalizzati come PyFunc, Scikit-Learn e LangChain.
- Modelli di base (FM, Foundation Models) su Databricks come Llama 3, MPT, Mistral e BGE
- Modelli di base ospitati altrove come ChatGPT, Claude 3, Cohere e Stable Diffusion
Monitora dati, funzionalità e modelli AI in modo centralizzato
Lakehouse Monitoring fornisce una soluzione di monitoraggio unificata all'interno della Databricks Data Intelligence Platform che monitora proprietà statistiche e qualità di tutte le tabelle con un solo clic. Per le applicazioni basate sull'AI generativa, può scansionare gli output per individuare contenuti tossici e non sicuri e diagnosticare errori.
Gestisci e monitora la derivazione lungo l'intero ciclo di vita dell'AI, dai dati ai modelli
Applica le autorizzazioni appropriate, imposta limiti di query e monitora la derivazione dei dati per soddisfare rigorosi requisiti di sicurezza e governance. Tutte le risorse di ML, dai dati ai modelli, si possono gestire con un unico strumento, Unity Catalog, per garantire supervisione e controllo coerenti in ogni fase del ciclo di vita del ML, dallo sviluppo all'implementazione fino alla manutenzione.
Addestramento e serving dei tuoi LLM personalizzati a un costo 10 volte inferiore
Con Mosaic AI, puoi creare da zero il tuo modello linguistico di grandi dimensioni personalizzato per garantire che la conoscenza di base del modello sia adattata al tuo specifico settore. Effettuando l'addestramento con i tuoi dati sull'IP della tua organizzazione, si crea un modello personalizzato e diverso da ogni altro. Databricks Mosaic AI Training è una soluzione di addestramento ottimizzata che può costruire nuovi LLM con miliardi di parametri in pochi giorni e costi di addestramento fino a 10 volte inferiori.
Componenti del prodotto
Notebook collaborativi
I notebook di Databricks supportano in modo nativo Python, R, SQL e Scala, consentendo ai professionisti di lavorare insieme con i linguaggi e le librerie preferiti, per scoprire, visualizzare e condividere informazioni approfondite e dettagliate.
Runtime per Machine Learning
Accesso con un solo clic a cluster preconfigurati ottimizzati per ML, sostenuti da una distribuzione scalabile e affidabile dei framework ML più popolari (come PyTorch, TensorFlow e scikit-learn), con ottimizzazioni integrate per prestazioni impareggiabili su larga scala.
Feature Store
Facilita il riutilizzo di feature con una ricerca basata sulla loro provenienza, che sfrutta automaticamente le sorgenti di dati registrati. Le feature possono essere messe a disposizione per addestramento e serving con un'implementazione semplificata del modello che non richiede modifiche all'applicazione client.
Repository
Con Repos, gli ingegneri possono seguire i flussi di lavoro Git in Databricks, consentendo ai team di gestione dei dati di sfruttare flussi di lavoro CI/CD automatizzati e portabilità del codice.
Modelli linguistici di grandi dimensioni
Databricks semplifica l'implementazione, la governance, l'interrogazione e il monitoraggio degli accessi agli LLM e la loro integrazione nei flussi di lavoro e fornisce funzionalità di piattaforma per la generazione potenziata dal recupero (RAG) o l'ottimizzazione degli LLM con i propri dati, con conseguente miglioramento delle prestazioni del dominio. Forniamo anche strumenti ottimizzati per pre-addestrare i tuoi LLM in pochi giorni, a un costo 10 volte inferiore.