Prisma Cloud é a principal plataforma de Segurança na Nuvem que oferece visibilidade abrangente de código para nuvem sobre seus riscos e incidentes, oferecendo capacidades-chave de remediação para gerenciar e monitorar sua jornada de código para nuvem. A plataforma hoje protege mais de 1B+ de ativos ou cargas de trabalho em todo o mundo, do código à nuvem. Ele garante alguns dos ambientes mais exigentes com clientes que possuem dezenas de milhares de contas na nuvem que veem constantes mutações e alterações de configuração na escala de trilhões a cada hora.
Ao longo deste blog, revisaremos a abordagem histórica da Prisma Cloud para incorporar dados e IA em nossos produtos, os desafios que encontramos com nossa plataforma de dados existente e como, com a Plataforma de Inteligência de Dados da Databricks, a Prisma Cloud alcançou um impacto transformador em toda a empresa que beneficia diretamente nossos clientes e equipes internas.
O foco do Prisma Cloud era oferecer as melhores soluções em cada segmento/módulo e, em seguida, fornecer recursos de segurança adicionais que ajudam a conectar sinais de diferentes módulos para oferecer capacidades mais profundas como uma oferta de plataforma. Alguns exemplos incluem:
O Prisma Cloud é configurado com mais de 10 módulos, cada um sendo o melhor em suas características de segurança e gerando sinais para a plataforma. Os clientes podem optar por aproveitar a plataforma para suas necessidades verticais (por exemplo, para gerenciamento de vulnerabilidades) ou para todo o conjunto. A abordagem da plataforma incentiva o cliente a explorar áreas adjacentes, aumentando o valor geral e promovendo maior aderência.
O desafio técnico da Prisma Cloud é fundamentalmente um desafio de dados. Com nossa rápida expansão de módulos - impulsionada tanto pela inovação orgânica quanto por M&As - desenvolver uma estratégia de dados unificada do zero foi uma tarefa exigente. No entanto, a visão era clara: sem uma solução para consolidar todos os dados em um único lugar, não poderíamos entregar totalmente as capacidades que nossos clientes precisam enquanto aproveitamos o poder dos melhores módulos.
Como um dos maiores adotantes do GenAI, a Palo Alto Networks construiu sua estratégia de IA em torno de três pilares principais: aproveitar a IA para aprimorar as ofertas de segurança, proteger a IA para ajudar os clientes a protegerem seu uso de IA e otimizar a experiência do usuário por meio de copilotos e automação orientados por IA. Veja PrecisionAI para mais detalhes.
Palo Alto Networks e Prisma Cloud tiveram um forte histórico de uso profundo de IA/ML em vários produtos e recursos muito antes da onda GenAI remodelar a indústria. No entanto, a rápida evolução das capacidades de IA acelerou a necessidade de uma estratégia de dados abrangente e de longo prazo.
Escolhemos a Plataforma de Inteligência de Dados Databricks como a melhor opção para nossa direção estratégica e requisitos, pois englobava todos os aspectos críticos necessários para apoiar nossa visão. Com o Databricks, aceleramos significativamente nossos esforços de consolidação de dados e escalamos casos de uso inovadores - entregando benefícios mensuráveis para os clientes em apenas seis meses após a implementação.
Apenas no primeiro ano de integração com Databricks, a Palo Alto Networks alcançou um impacto transformador em toda a empresa, que beneficia diretamente tanto nossos clientes quanto as equipes internas. Ao centralizar os fluxos de trabalho de dados na Plataforma Databricks, reduzimos significativamente a complexidade e aceleramos a inovação, permitindo-nos iterar sobre os recursos de IA/ML três vezes mais rápido do que antes. Junto com este aumento de velocidade, percebemos uma redução de 20% no custo dos produtos vendidos e uma diminuição de 3x no tempo de desenvolvimento de engenharia.
Aproveitando a colaboração aprimorada - impulsionada pelos Workflows da Databricks, pelo Catálogo Unity da Databricks para governança unificada e pelo Auto Loader da Databricks, conseguimos entregar soluções de segurança em uma velocidade e escala sem precedentes. Isso acelerou dramaticamente o processamento de dados da Prisma Cloud e nos permitiu trazer recursos impactantes para o mercado mais rápido do que nunca.
O Prisma Cloud executa a maior parte de sua infraestrutura na AWS com uma pilha de tecnologia de engenharia madura construída em torno dos serviços nativos da AWS. Nossa equipe tinha vasta experiência em aproveitar o Apache Spark para processamento ETL e analítico, executando nossa infraestrutura no AWS Glue e EMR.
Reconhecendo a necessidade de uma plataforma de dados dedicada, inicialmente desenvolvemos uma solução caseira utilizando EMR, Glue e S3 como a base para nossa versão inicial. Embora essa abordagem tenha funcionado bem com uma equipe pequena, escalá-la para suportar uma estratégia de dados mais ampla e adoção em várias equipes rapidamente se tornou um desafio. Nos encontramos gerenciando milhares de trabalhos do Glue e vários clusters EMR - todos exigindo capacidades de nível empresarial, como monitoramento, alertas, verificações de confiabilidade e proteções de governança/segurança.
À medida que nossas necessidades aumentavam, o overhead operacional também aumentava. Uma parte significativa de nosso esforço de engenharia foi desviada para manter o que efetivamente se tornou um "Sistema Operacional" para nossa plataforma de dados, em vez de se concentrar em inovação e casos de uso orientados para o valor.
Embora esse esforço tenha atendido às nossas necessidades estratégicas, logo começamos a enfrentar vários desafios na manutenção desta versão. Alguns deles estão listados abaixo
Apesar desses desafios, nossa solução interna continua a escalar, processando dezenas de milhões de mutações de dados por hora para casos de uso críticos. Olhando para o futuro, vemos uma clara necessidade de migrar para uma plataforma mais madura - uma que nos permita aposentar ferramentas internas e redirecionar esforços de engenharia para proteger os ambientes de nuvem de nossos clientes, em vez de gerenciar infraestrutura.
Na Prisma Cloud, seguimos a regra dos 8 fatores para qualquer avaliação técnica para avaliar suas vantagens e desvantagens. Esses fatores são analisados por nosso comitê de liderança técnica interna, onde participamos de discussões para chegar a um consenso. Em casos onde um fator não pode ser adequadamente avaliado, coletamos dados adicionais por meio de prototipagem relevante para o negócio para garantir uma decisão bem informada.
Os principais fatores estão listados abaixo:
Um de nossos principais objetivos a longo prazo era a capacidade de mover-se em direção a um modelo de malha de dados de segurança. Dado nossa abordagem de plataforma, categorizamos os dados em 3 tipos fundamentais:
Ao contrário dos tradicionais lagos de dados, onde os dados Bronze são frequentemente descartados, a amplitude e profundidade de nossa plataforma exigem uma abordagem mais evolutiva. Em vez de simplesmente transformar dados em conjuntos de dados Gold, imaginamos nosso data lake evoluindo para uma malha de dados, permitindo maior flexibilidade, acessibilidade e insights entre domínios. O diagrama abaixo reflete a capacidade de longo prazo que buscamos extrair de nossos investimentos em lago de dados.
Todas as nossas avaliações foram centradas na filosofia acima.
Além de marcar todas as caixas em nossa nova estrutura de avaliação de tecnologia, os seguintes insights chave consolidaram ainda mais o Databricks como nossa plataforma de dados preferida.
Critérios | EMR/GLUE (ou tecnologia nativa do Provedor de Nuvem) | Databricks |
---|---|---|
Facilidade de Implantação | Cada equipe precisa trabalhar em seu código de implantação. Geralmente um sprint de trabalho. | Integração única e as equipes adotarão. O trabalho do SRE foi reduzido para alguns dias. |
Facilidade de Administração | Manutenção de versões e patches de segurança. SREs geralmente levam alguns dias. | O trabalho de SRE não é mais necessário. |
Integrações | SRE precisa configurar o Airflow e o ksql (geralmente um sprint de trabalho para novas equipes) | Pronto para Uso |
MLflow | Precisa comprar uma ferramenta ou adotar código aberto. Cada equipe precisa se integrar. (Alguns meses pela primeira vez, um sprint de trabalho para cada equipe). | Pronto para Uso |
Catálogo de Dados (Requer linhagem de dados, segurança, controle de acesso baseado em funções, dados pesquisáveis e marcação de dados.) | Precisa comprar ferramentas e integrar com o Prisma. | Pronto para Uso |
Aproveite as Bibliotecas ML e Auto ML | Necessidade de comprar e integrar com o Prisma. | Pronto para Uso |
SPOG para Desenvolvedores e SRE | Não disponível com EMR/GLUE. | Pronto para Uso |
DB sql(SQL em dados s3) | Athena, Presto. É necessário a ajuda de SRE para integrar com o Prisma. | Pronto para Uso |
Dado nossos primeiros pilotos, ficamos convencidos a começar a planejar um caminho de migração de nosso data lake baseado em S3 existente para a Plataforma Databricks. Uma oportunidade perfeita surgiu com um projeto de insights chave que exigia acesso a dados tanto das camadas Raw quanto Correlated para descobrir novos insights de segurança e otimizar a resolução de problemas de segurança.
Antes de adotar o Databricks, a execução deste tipo de projeto envolvia várias etapas complexas e demoradas:
Testamos o impacto da Plataforma de Inteligência de Dados da Databricks neste projeto crítico através das seguintes etapas:
Essa consolidação provou ser transformadora. Em uma única semana de prototipagem, descobrimos insights valiosos combinando conjuntos de dados brutos, processados e correlacionados, permitindo uma avaliação mais produtiva do ajuste do produto ao mercado. Como resultado, obtivemos uma direção clara sobre quais desafios do cliente perseguir e uma compreensão mais forte do impacto que poderíamos entregar.
Em apenas seis meses de parceria com a Databricks, introduzimos uma inovação de segurança crucial para nossos clientes - uma conquista que teria sido praticamente impossível dado nossa antiga pilha de tecnologia, base de clientes expansiva e a necessidade de priorizar os recursos de segurança essenciais.
Como o estudo de caso da aplicação acima mostrou, o momento de nosso crescimento alinhou-se com o Databricks emergindo como a plataforma de dados líder de escolha. Nosso compromisso compartilhado com a inovação rápida e a escalabilidade tornou essa parceria um ajuste natural.
Ao reformular o desafio técnico da segurança na nuvem como um problema de dados, conseguimos buscar fornecedores de tecnologia que são especialistas nesta área. Essa mudança estratégica nos permitiu focar na profundidade, aproveitando a poderosa plataforma da Databricks enquanto aplicamos nossa inteligência de domínio para adaptá-la à nossa escala e necessidades de negócios. Em última análise, essa colaboração nos permitiu acelerar a inovação, aprimorar os insights de segurança e entregar maior valor aos nossos clientes.
Leia mais sobre a colaboração entre Databricks e Palo Alto Networks aqui.
(This blog post has been translated using AI-powered tools) Original Post