Eficácia geral do equipamento
O que é a eficácia geral do equipamento?
A Eficácia Geral do Equipamento(EGE) é uma medida do desempenho de uma operação de manufatura (instalações, tempo e material) em comparação com seu potencial total, durante os períodos em que está programada para funcionar. Ela identifica a porcentagem do tempo de manufatura que é realmente produtiva. Uma EGE é um painel que mostra o desempenho total de um processo discreto ou contínuo. A EGE é maximizada em 100% e significa que apenas peças boas são produzidas (100% de qualidade), na velocidade máxima (100% de desempenho) e sem interrupção (100% de disponibilidade).
Medir a EGE é uma prática recomendada no setor de manufatura. Ao medir a EGE e as perdas subjacentes, é possível obter percepções importantes para melhorar sistematicamente o processo de manufatura. A EGE é uma métrica eficaz para identificar perdas, fazer benchmarking do progresso e melhorar a produtividade dos equipamentos de manufatura (ou seja, eliminar desperdícios).
Por que isso é importante?
A EGE é usada como a principal métrica de manufatura há décadas. Historicamente, o monitoramento da EGE usava coleta manual de dados diretamente das máquinas em batch e calculava a métrica. Por si só, a EGE é um painel reativo que monitora o desempenho passado e histórico. O verdadeiro poder da EGE é guiar a implementação de casos de uso que melhoram os componentes da OEE. A implantação de manutenção preditiva para melhorar a disponibilidade ou controle de qualidade aproveita a visão computacional para melhorar a qualidade preditiva em função.
Quais são os recursos diferenciados do Databricks?
- O lakehouse do Databricks usa tecnologias que incluem Delta, Delta Live Tables, Autoloader e Photon para que os clientes tenham à disposição dados para decisões em tempo real.
- O Lakehouse para MFG oferece suporte aos maiores jobs de dados em intervalos quase em tempo real. Por exemplo, os clientes estão trazendo quase 400 milhões de eventos por dia a partir de sistemas de log transacional em intervalos de 15 segundos. Devido à interrupção na geração de relatórios e análise que ocorre durante o processamento de dados, a maioria dos clientes de varejo carrega dados em seu data warehouse durante um batch noturno. Algumas empresas estão carregando dados semanalmente ou mensalmente.
- Uma arquitetura do lakehouse orientada a eventos oferece um método mais simples de ingestão e processamento de dados em batch e streaming do que abordagens legadas, como arquiteturas lambda. Essa arquitetura lida com a captura de dados de alterações e fornece conformidade com transações ACID.
- O Delta Live Tables simplifica a criação de pipelines de dados e cria automaticamente uma linhagem para auxiliar no gerenciamento contínuo.
- O lakehouse permite a ingestão de fluxo em tempo real de dados e análises em dados de streaming. Os data warehouses exigem a extração, transformação, carregamento e extração adicional do data warehouse para executar qualquer análise.
- O Photon fornece desempenho de consulta recorde, permitindo que os usuários consultem até mesmo os maiores conjuntos de dados para potencializar decisões em tempo real em ferramentas de BI.
Quais desafios de dados precisam ser abordados para desenvolver recursos de EGE preditiva?
- Lidar com o volume e a variedade de dados de IoT— Para permitir casos de uso preditivos incorporados em fabricantes de EGE, o lakehouse lida com todos os tipos de estruturas e esquemas de dados diversos, incluindo tudo, de leituras intermitentes de temperatura, pressão e vibrações por segundo até o tratamento de dados totalmente não estruturados (por exemplo, imagens, vídeo, texto, dados espectrais) ou outras formas, como sinais termográficos ou acústicos, fornecidos pela borda através de diversos drivers e protocolos compatíveis.
- Gerenciar a complexidade dos dados em tempo real: para impulsionar o monitoramento contínuo de processos, a otimização do rendimento ou a manutenção preditiva, o lakehosue permite análises em tempo real sobre dados de streaming. O lakehouse efetivamente ingere, armazena e processa dados de streaming em tempo real ou quase em tempo real, a fim de fornecer insights e ações de modo instantâneo.
- Liberar dados de silos independentes— Processos especializados (plataformas de inovação, QMS, MES etc.) dentro da cadeia de valor recompensam fontes de dados e plataformas de gerenciamento de dados diferentes que se adaptam a soluções exclusivas em silos. Essas soluções de pontos estreitos limitam o valor corporativo ao considerar apenas uma fração da visão que os dados de várias empresas podem oferecer. Além disso, soluções duplicadas em silos dividem os negócios, limitando as oportunidades de colaboração. E mais: o lakehouse ingere, armazena, gerencia e processa dados de streaming de todos os pontos da cadeia de valor, combina-os com historiadores de dados, fontes de ERP, MES e QMS e os utiliza em insights acionáveis.
- Recursos analíticos diversos—Os data warehouses legados oferecem capacidade limitada de fornecer insights e análises sobre o uso e o desempenho da plataforma. Para soluções de IoT de manufatura conectada, o lakehouse fornece uma ampla gama de opções analíticas, incluindo tudo, de recursos de análise e pesquisa de SQL até ferramentas para permitir machine learning e modelagem, além de forte integração com as principais soluções de business intelligence (BI) que oferecem recursos especializados de dashboard e análise de negócios.
- Recursos de modelagem preditiva— Os recursos de modelagem preditiva são fundamentais para fornecer insights, e o lakehouse fornece recursos de machine learning voltados para notebooks usados para prever e prevenir distúrbios antes que eles afetem as operações.