Passa al contenuto principale

Efficacia totale dell'impianto (OEE)

Prova Databricks gratis

Che cos'è l'efficienza totale di un impianto?

L'efficienza totale di un impianto(OEE) è un parametro che misura quanto un'attività produttiva viene utilizzata (dal punto di vista di strutture, tempo e materiali) rispetto al suo pieno potenziale, durante i periodi in cui è programmata per funzionare. Identifica la percentuale di tempo di produzione che è effettivamente produttiva. L'OEE è una dashboard che mostra le prestazioni complessive di un processo discreto o continuo. Quando l'OEE è al 100% significa che vengono prodotti solo pezzi buoni (100% di qualità), alla massima velocità (100% di prestazioni) e senza interruzioni (100% di disponibilità).

La misurazione dell'OEE è una best practice di produzione. Misurando l'OEE e le perdite sottostanti, si possono acquisire importanti informazioni su come migliorare sistematicamente il processo produttivo. L'OEE è una metrica efficace per identificare le perdite, valutare i progressi e migliorare la produttività delle apparecchiature di produzione (cioè eliminare gli sprechi).

Perché è importante?

L'OEE è stata utilizzata per decenni come principale metrica di produzione. Tradizionalmente, i processi di monitoraggio dell'OEE utilizzavano dati raccolti manualmente su base batch direttamente dalle macchine e calcolavano la metrica. Per sua natura, l'OEE è una dashboard reattiva che monitora le prestazioni passate e storiche. L'OEE è importante perché serve da guida nell'implementazione di casi d'uso che migliorano i componenti dell'OEE: l'implementazione della manutenzione predittiva per migliorare la disponibilità, ad esempio, o l'uso della visione artificiale nel quality control per migliorare la qualità.

Quali sono le capacità differenziate di Databricks?

  • Il lakehouse di Databricks utilizza tecnologie che includono Delta, Delta Live Tables, Autoloader e Photon per consentire ai clienti di utilizzare i dati a supporto di decisioni in tempo reale.
  • Il lakehouse per MFG supporta anche i job sui dati più grandi a intervalli quasi in tempo reale. I nostri clienti caricano nel lakehouse quasi 400 milioni di eventi al giorno dai log delle transazioni a intervalli di 15 secondi. A causa dell'interruzione delle attività di reporting e analisi che si verifica durante l'elaborazione dei dati, la maggior parte dei clienti del settore retail carica i dati nel proprio data warehouse durante un batch notturno. Alcune aziende caricano i dati addirittura con cadenza settimanale o mensile.
  • Un'architettura lakehouse event-driven fornisce un metodo più semplice per l'inserimento e l'elaborazione di dati batch e streaming rispetto agli approcci legacy, come le architetture Lambda. Questa architettura gestisce l'acquisizione dei dati di modifica e garantisce la conformità ACID delle transazioni.
  • Delta Live Tables semplifica la creazione di pipeline di dati e integra automaticamente la derivazione dei dati per agevolare la gestione continua.
  • Il lakehouse consente di inserire i dati in tempo reale e di eseguire analisi sui flussi di dati. Con i data warehouse è necessario estrarre, trasformare, caricare ed estrarre nuovamente i dati dal warehouse prima di poter eseguire qualsiasi analisi.
  • Photon offre prestazioni di query ineguagliabili, consentendo agli utenti di interrogare anche i set di dati più grandi per prendere decisioni informate in tempo reale negli strumenti di BI.

Quali sono le sfide legate ai dati che devono essere affrontate per costruire funzionalità OEE predittive?

  • Gestione del volume e della varietà di dati IoT. Per creare i casi d'uso predittivi incorporati nelle soluzioni OEE, il Lakehouse gestisce tutti i tipi di strutture e schemi di dati diversi, dalle letture intermittenti di temperatura, pressione e vibrazioni al secondo, fino alla gestione di dati completamente non strutturati (ad esempio immagini, video, testo, dati spettrali) o di altre forme, come segnali termografici o acustici, provenienti dall'edge e forniti attraverso diversi driver e protocolli supportati.
  • Gestire la complessità dei dati in tempo reale. Per rendere possibile il monitoraggio continuo dei processi, l'ottimizzazione della produttività o la manutenzione predittiva, il Lakehouse consente di effettuare analisi in tempo reale sui dati in streaming. Il Lakehouse acquisisce, archivia ed elabora efficacemente i dati in streaming in tempo reale o quasi, per fornire istantaneamente informazioni e permettere di intraprendere azioni tempestive.
  • Liberare i dati da silos indipendenti. I processi specializzati (piattaforme di innovazione, QMS, MES, ecc.) all'interno della catena del valore incentivano l'uso di sorgenti di dati eterogenee e piattaforme di gestione dei dati adattate a soluzioni in silo uniche. Queste soluzioni ristrette limitano il valore dell'azienda considerando solo una frazione delle informazioni che i dati interaziendali possono offrire; inoltre, le soluzioni in silo duplicate frammentano l'attività aziendale, riducendo le opportunità di collaborazione. Il Lakehouse, al contrario, acquisisce, archivia, gestisce ed elabora i dati in streaming provenienti da tutti i punti della catena del valore, li combina con gli storici dei dati, le fonti ERP, MES e QMS e li trasforma in informazioni immediatamente fruibili.
  • Capacità analitiche diversificate. I data warehouse legacy possiedono una capacità limitata di fornire informazioni e analisi sull'utilizzo e le prestazioni della piattaforma. Per le soluzioni IoT di produzione connessa, il Lakehouse offre un'ampia gamma di opzioni analitiche, tra cui funzionalità SQL di analisi e ricerca, strumenti di supporto per il machine learning e la modellazione e una stretta integrazione con le principali soluzioni di Business Intelligence (BI) che mettono a disposizione degli utenti dashboard specializzate e funzionalità di business analytics.
  • Capacità di modellazione predittiva. Le capacità di modellazione predittiva sono fondamentali per fornire informazioni approfondite. Il Lakehouse fornisce funzionalità notebook guidate dal machine learning che vengono utilizzate per prevedere e prevenire le anomalie prima che abbiano un impatto sulle attività operative.

Risorse aggiuntive

Torna al Glossario