Approfondisci la data science su Databricks
L'intero flusso di lavoro di data science — dalla preparazione dei dati, passando per la modellazione, fino alla condivisione delle informazioni — può essere snellito con un ambiente di data science unificato e collaborativo, basato su una piattaforma lakehouse aperta. In questo modo si potrà accedere velocemente a dati puliti e affidabili, risorse di calcolo preconfigurate, integrazione IDE, assistenza multilingua e strumenti integrati di visualizzazione avanzata per offrire la massima flessibilità ai team di analisi dei dati.
![Collaboration chart](/en-website-assets/static/6143e86ab8e9ae33a6029222d7ba9b20/collaboration_chart1671693644.png)
Collaborazione lungo l'intero flusso di lavoro di data science
Scrivi codice in Python, R, Scala e SQL, esplora i dati con visualizzazioni interattive e scopri nuove informazioni con i notebook di Databricks. È possibile condividere codice in modo affidabile e sicuro con co-creazione, commenti, gestione automatica delle versioni, integrazioni Git e controllo degli accessi per ruoli.
![Data AI focus chart](/en-website-assets/static/fecfb51f0f6145daf105361e1d52c68e/data_ai_focus_chart1671693710.png)
Focalizzazione sulla data science, non sull'infrastruttura
Non ci sono limiti imposti dalla quantità di dati conservabili nel proprio laptop o dalla capacità di calcolo disponibile. Migra rapidamente sul cloud il tuo ambiente locale e collega i notebook ai tuoi cluster personali di calcolo e autogestiti.
![Tech logos](/en-website-assets/static/ed1c376065982303e90029b8a9b413b5/Data-Science-Image-31675449660.png)
Utilizzare l'ambiente di sviluppo IDE preferito con capacità di calcolo scalabile
La scelta dell'ambiente di sviluppo IDE (Integrated Development Environment) è molto soggettiva e incide fortemente sulla produttività.Collegando il proprio IDE preferito a Databricks si potrà comunque beneficiare di capacità illimitate di stoccaggio dati e calcolo. In alternativa, si possono utilizzare RStudio o JupyterLab direttamente dall'interno di Databricks per ottenere un'esperienza fluida.
![Get data ready for data science](/en-website-assets/static/be0ec98e2d6eb71da867539a560e0d9c/data_science-get_data_ready_graphic1674076000.png)
Preparare i dati per la data science
Tutti i dati (in batch o in streaming, strutturati o non strutturati) possono essere puliti e catalogati in un unico punto con Delta Lake ed essere accessibili all'intera organizzazione attraverso un data store centralizzato. Man mano che i dati affluiscono, i controlli di qualità automatici garantiscono che i dati siano conformi alle aspettative e pronti per l'analisi. Quando i dati si evolvono con l'acquisizione di nuovi dati e ulteriori elaborazioni, la gestione delle versioni assicura il rispetto delle esigenze di conformità.
![Lowcode](/en-website-assets/static/4d3568da8b639db8677bb8f59531e308/lowcode_with_bamboolib1671693937.gif)
Strumenti visivi low-code per l'esplorazione dei dati
Usa gli strumenti visivi in modo nativo dai notebook Databricks per preparare, trasformare e analizzare i tuoi dati, permettendo ai team con vari livelli di esperienza di lavorare con i dati. Una volta concluse le trasformazioni e le visualizzazioni dei dati, potrai generare il codice in esecuzione in background, risparmiando tempo nella scrittura del codice boilerplate per poter dedicare più tempo ai compiti di alto valore.
![Taxi Heat Map](/en-website-assets/static/808eb3be3f5e1b81e7e858bc7e31f1f3/DATA_AI_data_science_Discover_graphic-1024x7511671694001.png)
Scoprire e condividere nuove informazioni
I risultati possono ora essere facilmente condivisi ed esportati trasformando velocemente l'analisi in un dashboard dinamico. I dashboard sono sempre aggiornati e possono anche effettuare interrogazioni interattive. Celle, visualizzazioni o notebook possono essere condivisi con il controllo degli accessi per ruoli ed esportati in diversi formati, fra cui HTML e IPython Notebook.