Ir para o conteúdo principal

Governança, Risco e Conformidade: Estratégias Essenciais

Governance Risk & Compliance: Essential Strategies
Updated: February 21, 2025
Published: February 7, 2025
Líder de dados11 min de leitura

Summary

À medida que as organizações correm para adotar tecnologias de IA, a implementação de frameworks abrangentes de governança, gestão de riscos e conformidade é crucial para realizar com segurança os benefícios da IA, enquanto navega pelos riscos potenciais e requisitos regulatórios.

  • As organizações devem estabelecer estratégias claras de IA e estruturas de governança, com envolvimento da liderança de alto nível e supervisão multifuncional
  • As principais áreas de política incluem proteção de privacidade, segurança de IP, transparência, prevenção de viés e gestão da força de trabalho
  • O sucesso requer a unificação da governança de dados e IA para garantir acesso contínuo e seguro a dados de alta qualidade, mantendo a conformidade regulatória

Governança: a base inédita do sucesso da IA

Governança, risco e conformidade são essenciais para colher os benefícios da IA

A revolução da IA está em andamento, e as empresas estão ansiosas para explorar como os mais recentes avanços da IA podem beneficiá-las, especialmente as capacidades de alto perfil da GenAI. Com inúmeras aplicações na vida real - desde aumentar a eficiência e produtividade até criar experiências superiores para o cliente e fomentar a inovação - a IA promete ter um enorme impacto em diversos setores no mundo dos negócios.

Embora as organizações compreensivelmente não queiram ficar para trás na colheita dos benefícios da IA, existem riscos envolvidos. Estes variam desde considerações de privacidade até proteção de IP, confiabilidade e precisão, cibersegurança, transparência, responsabilidade, ética, viés e justiça e preocupações com a força de trabalho.

As empresas precisam abordar a IA de maneira deliberada, com clara consciência dos perigos e um plano cuidadoso de como aproveitar ao máximo as capacidades da IA de forma segura. A IA também está cada vez mais sujeita a regulamentações e restrições governamentais e ações legais nos Estados Unidos e no mundo todo.

Programas de governança, risco e conformidade em IA são cruciais para se manter à frente da paisagem de IA em rápida evolução. A governança da IA consiste nas estruturas, políticas e procedimentos que supervisionam o desenvolvimento e uso da IA dentro de uma organização.

Assim como as principais empresas estão adotando a IA, elas também estão adotando a governança de IA, com envolvimento direto nos mais altos níveis de liderança. Organizações que alcançam os maiores retornos de IA possuem estruturas abrangentes de governança de IA, de acordo com a McKinsey, e relatórios da Forrester indicam que um em cada quatro executivos de tecnologia estará reportando ao seu conselho sobre a governança de IA.

Há uma boa razão para isso. Uma governança eficaz da IA garante que as empresas possam realizar o potencial da IA enquanto a usam de forma segura, responsável e ética, em conformidade com os requisitos legais e regulatórios. Um forte quadro de governança ajuda as organizações a reduzir riscos, garantir transparência e responsabilidade e construir confiança internamente, com clientes e com o público.

Melhores práticas de governança, risco e conformidade de IA

Para construir proteções contra os riscos da IA, as empresas devem desenvolver deliberadamente um plano abrangente de governança, risco e conformidade em IA antes de implementá-la. Aqui está como começar.

Crie uma estratégia de IA
Uma estratégia de IA delineia os objetivos gerais da organização em relação à IA, as expectativas e o caso de negócio. Ele deve incluir riscos e recompensas potenciais, bem como a postura ética da empresa em relação à IA. Esta estratégia deve atuar como uma estrela guia para os sistemas e iniciativas de IA da organização.

Construa uma estrutura de governança de IA
Criar uma estrutura de governança de IA começa com a nomeação das pessoas que tomam decisões sobre a governança de IA. Muitas vezes, isso assume a forma de um comitê, grupo ou conselho de governança de IA, idealmente composto por líderes de alto nível e especialistas em IA, bem como membros representando várias unidades de negócios, como TI, recursos humanos e departamentos jurídicos. Este comitê é responsável por criar processos e políticas de governança de IA, bem como atribuir responsabilidades para várias facetas da implementação e governança de IA.

Uma vez que a estrutura esteja lá para apoiar a implementação de IA, o comitê é responsável por fazer quaisquer alterações necessárias na estrutura de governança de IA da empresa, avaliar novas propostas de IA, monitorar o impacto e os resultados da IA e garantir que os sistemas de IA estejam em conformidade com padrões éticos, legais e regulatórios e apoiem a estratégia de IA da empresa.

Ao desenvolver a governança de IA, as organizações podem obter orientação de frameworks voluntários como o AI Risk Management Framework do U.S. NIST, a plataforma de teste de segurança de IA Inspect de código aberto do Instituto de Segurança de IA do Reino Unido, as Diretrizes Éticas para IA Confiável da Comissão Europeia e os Princípios de IA da OCDE.

Principais políticas para governança, risco e conformidade de IA

Uma vez que uma organização tenha avaliado completamente os riscos de governança, os líderes de IA podem começar a definir políticas para mitigá-los. Essas políticas criam regras e processos claros a serem seguidos por qualquer pessoa que trabalhe com IA dentro da organização. Elas devem ser detalhadas o suficiente para cobrir o máximo de cenários possível desde o início - mas precisarão evoluir junto com os avanços da IA. As principais áreas de política incluem:

Privacidade
Em nosso mundo digital, os riscos à privacidade pessoal já são primordiais, mas a IA aumenta as apostas. Com a enorme quantidade de dados pessoais usados pela IA, as violações de segurança poderiam representar uma ameaça ainda maior do que representam agora, e a IA poderia potencialmente ter o poder de coletar informações pessoais - mesmo sem o consentimento individual - e expô-las ou usá-las para causar danos. Por exemplo, a IA poderia criar perfis detalhados de indivíduos agregando informações pessoais ou usar dados pessoais para auxiliar na vigilância.

Políticas de privacidade garantem que os sistemas de IA manuseiem os dados de forma responsável e segura, especialmente dados pessoais sensíveis. Neste campo, as políticas podem incluir salvaguardas como:

  • Coletar e usar a quantidade mínima de dados necessária para um propósito específico
  • Anonimização de dados pessoais
  • Garantir que os usuários deem seu consentimento informado para a coleta de dados
  • Implementar sistemas de segurança avançados para proteger contra violações
  • Monitoramento contínuo de dados
  • Compreender as leis e regulamentos de privacidade e garantir a aderência

Proteção de IP
A proteção de IP e dados proprietários da empresa é uma grande preocupação para as empresas que adotam a IA. Os ciberataques representam um tipo de ameaça aos valiosos dados organizacionais. Mas as soluções comerciais de IA também geram preocupações. Quando as empresas inserem seus dados em grandes LLMs, como o ChatGPT, esses dados podem ser expostos - permitindo que outras entidades obtenham valor a partir deles.

Uma solução é que as empresas proíbam o uso de plataformas GenAI de terceiros, uma medida que empresas como Samsung, JP Morgan Chase, Amazon e Verizon tomaram. No entanto, isso limita a capacidade das empresas de aproveitar alguns dos benefícios dos grandes LLMs. E apenas algumas poucas empresas de elite têm os recursos para criar seus próprios modelos em grande escala.

No entanto, modelos menores, personalizados com os dados de uma empresa, podem fornecer uma resposta. Embora esses modelos possam não ter a amplitude de dados que os LLMs comerciais fornecem, eles podem oferecer dados de alta qualidade e personalizados sem as informações irrelevantes e potencialmente falsas encontradas em modelos maiores.

Transparência e explicabilidade
Os algoritmos e modelos de IA podem ser complexos e opacos, tornando difícil determinar como seus resultados são produzidos. Isso pode afetar a confiança e cria desafios em tomar medidas proativas contra riscos.

As organizações podem instituir políticas para aumentar a transparência, como:

  • Seguir estruturas que incorporam a responsabilidade na IA desde o início
  • Exigir registros de auditoria e logs dos comportamentos e decisões de um sistema de IA
  • Manter registros das decisões tomadas pelos humanos em todas as etapas, do design à implantação
  • Adotando técnicas de IA explicável

Ser capaz de reproduzir os resultados do aprendizado de máquina também permite auditoria e revisão, construindo confiança no desempenho do modelo e na conformidade. A seleção de algoritmos também é uma consideração importante para tornar os sistemas de IA explicáveis e transparentes em seu desenvolvimento e impacto.

Confiabilidade
A IA é tão boa quanto os dados que recebe e as pessoas que a treinam. Informações imprecisas são inevitáveis para grandes LLMs que usam grandes quantidades de dados online. Plataformas GenAI como o ChatGPT são notórias por às vezes produzirem resultados imprecisos, variando de imprecisões factuais menores a alucinações completamente fabricadas. Políticas e programas que podem aumentar a confiabilidade e a precisão incluem:

  • Processos fortes de garantia de qualidade para os dados
  • Educar os usuários sobre como identificar e se defender contra informações falsas
  • Testes rigorosos do modelo, avaliação e melhoria contínua

As empresas também podem aumentar a confiabilidade treinando seus próprios modelos com dados de alta qualidade e verificados, em vez de usar grandes modelos comerciais.

Usar sistemas agentivos é outra maneira de aumentar a confiabilidade. A IA agente consiste em "agentes" que podem realizar tarefas para outra entidade de forma autônoma. Enquanto os sistemas tradicionais de IA dependem de entradas e programação, os modelos de IA agentivos são projetados para agir mais como um funcionário humano, entendendo o contexto e as instruções, estabelecendo metas e agindo de forma independente para alcançá-las enquanto se adapta conforme necessário, com mínima intervenção humana. Esses modelos podem aprender com o comportamento do usuário e outras fontes além dos dados de treinamento iniciais do sistema e são capazes de raciocínio complexo sobre dados empresariais.

As capacidades de dados sintéticos podem ajudar a aumentar a qualidade do agente, gerando rapidamente conjuntos de dados de avaliação, o equivalente GenAI de suítes de teste de software, em minutos. Isso acelera significativamente o processo de melhoria da qualidade da resposta do agente de IA, acelera o tempo de produção e reduz os custos de desenvolvimento.

Vieses e justiça
O viés social que se infiltra nos sistemas de IA é outro risco. A preocupação é que os sistemas de IA podem perpetuar vieses sociais para criar resultados injustos com base em fatores como raça, gênero ou etnia, por exemplo. Isso pode resultar em discriminação e é particularmente problemático em áreas como contratação, empréstimos e saúde. As organizações podem mitigar esses riscos e promover a justiça com políticas e práticas como:

  • Criando métricas de justiça
  • Usando conjuntos de dados de treinamento representativos
  • Formando equipes de desenvolvimento diversas
  • Garantindo supervisão e revisão humana
  • Monitorando resultados para viés e justiça

Força de trabalho
As capacidades de automação da IA vão ter um impacto na força de trabalho humana. De acordo com a Accenture, 40% das horas de trabalho em diversos setores poderiam ser automatizadas ou aumentadas pela IA generativa, com bancos, seguros, mercados de capitais e software mostrando o maior potencial. Isso afetará até dois terços das ocupações nos EUA, de acordo com o Goldman Sachs, mas a empresa conclui que a IA é mais provável que complemente os trabalhadores atuais do que leve a uma perda generalizada de empregos. Os especialistas humanos continuarão essenciais, idealmente assumindo trabalhos de maior valor enquanto a automação ajuda com tarefas de baixo valor e tediosas. Os líderes empresariais veem a IA mais como um copiloto do que como um rival dos funcionários humanos.

Independentemente, alguns funcionários podem estar mais nervosos com a IA do que animados com a forma como ela pode ajudá-los. As empresas podem tomar medidas proativas para ajudar a força de trabalho a abraçar as iniciativas de IA em vez de temê-las, incluindo:

  • Educando os trabalhadores sobre os fundamentos da IA, considerações éticas e políticas de IA da empresa
  • Focando no valor que os funcionários podem obter das ferramentas de IA
  • Requalificação dos funcionários à medida que as necessidades evoluem
  • Democratizando o acesso a capacidades técnicas para capacitar usuários de negócios

Unificando a governança de dados e IA

A IA apresenta desafios únicos de governança, mas está profundamente entrelaçada com a governança de dados. As empresas lutam com a governança fragmentada entre bancos de dados, armazéns e lagos. Isso complica a gestão, segurança e compartilhamento de dados e tem um impacto direto na IA. A governança unificada é a chave para o sucesso em todos os aspectos, promovendo a interoperabilidade, simplificando a conformidade regulatória e acelerando as iniciativas de dados e IA.

A governança unificada melhora o desempenho e a segurança tanto para dados quanto para IA, cria transparência e constrói confiança. Ela garante acesso contínuo a dados de alta qualidade e atualizados, resultando em resultados mais precisos e melhor tomada de decisão. Uma abordagem unificada que elimina os silos de dados aumenta a eficiência e a produtividade, ao mesmo tempo que reduz os custos. Este quadro também fortalece a segurança com fluxos de trabalho de dados claros e consistentes alinhados com os requisitos regulatórios e as melhores práticas de IA.

O Databricks Unity Catalog é a única solução de governança unificada e aberta do setor para dados e IA, integrada à Databricks Data Intelligence Platform. Com o Unity Catalog, as organizações podem governar de forma contínua todos os tipos de dados, bem como componentes de IA. Isso permite que as organizações descubram, acessem e colaborem de forma segura em dados confiáveis e ativos de IA em várias plataformas, ajudando-as a desbloquear todo o potencial de seus dados e IA.

Para um mergulho profundo na governança de IA, veja nosso ebook, Um Guia Abrangente para Governança de Dados e IA.

 

(This blog post has been translated using AI-powered tools) Original Post

Nunca perca uma postagem da Databricks

Inscreva-se nas categorias de seu interesse e receba as últimas postagens na sua caixa de entrada