주요 컨텐츠로 이동

지배구조 위험 및 준수: 필수 전략

Governance Risk & Compliance: Essential Strategies

Published: February 7, 2025

데이터 리더1분 이내 소요

작성자: 조쉬 하워드

Summary

조직들이 AI 기술을 도입하는 데 급급하면서, 포괄적인 거버넌스, 위험 관리, 그리고 준수 프레임워크를 구현하는 것은 AI의 이점을 안전하게 실현하면서 잠재적 위험과 규제 요구 사항을 탐색하는 데 중요합니다.

  • 조직은 고위급 리더십의 참여와 기능 간 감독을 통해 명확한 AI 전략과 거버넌스 구조를 수립해야 합니다
  • 주요 정책 영역에는 개인정보 보호, IP 보안, 투명성, 편향 예방 및 인력 관리가 포함됩니다
  • 성공을 위해서는 데이터와 AI 거버넌스를 통합하여 규제 준수를 유지하면서 고품질 데이터에 대한 원활하고 안전한 접근을 보장해야 합니다

(이 글은 AI의 도움을 받아 번역되었습니다. 원문이 궁금하시다면 여기를 클릭해 주세요)

거버넌스: AI 성공을 뒷받침하는 기반

지배구조, 위험 및 준수는 AI 보상을 거두는 데 중요합니다

AI 혁명이 진행 중이며, 기업들은 최신 AI 발전이 어떻게 이들에게 이익을 가져다 줄 수 있는지 탐구하려고 열심히 노력하고 있습니다, 특히 GenAI의 고도로 주목받는 기능들. 효율성과 생산성 향상에서부터 우수한 고객 경험 창출, 혁신 촉진에 이르기까지 실제 응용 분야가 많은 AI는 비즈니스 세계의 여러 산업에 걸쳐 엄청난 영향을 미칠 것으로 약속하고 있습니다.

조직들이 AI의 보상을 거두는 데 뒤처지지 않으려는 것은 이해할 수 있지만, 위험이 따릅니다. 이러한 위험은 개인 정보 보호 고려 사항에서부터 IP 보호, 신뢰성 및 정확성, 사이버 보안, 투명성, 책임, 윤리, 편향 및 공정성, 그리고 인력 문제에 이르기까지 다양합니다.

기업들은 위험에 대한 명확한 인식과 AI 기능을 안전하게 최대한 활용하는 방법에 대한 신중한 계획을 가지고 AI에 접근해야 합니다. 또한 AI는 점점 더 미국전 세계에서 정부 규제 및 제한, 법적 조치의 대상이 되고 있습니다.

AI 거버넌스, 위험 및 준수 프로그램은 빠르게 발전하는 AI 환경을 앞서가는 데 중요합니다. AI 거버넌스는 조직 내에서 AI의 개발 및 사용을 감독하는 구조, 정책 및 절차를 포함합니다.

주요 기업들이 AI를 수용하는 것처럼, 그들은 또한 최고 경영진의 직접 참여와 함께 AI 거버넌스를 수용하고 있습니다. McKinsey에 따르면, 가장 높은 AI 수익을 달성하는 조직들은 포괄적인 AI 거버넌스 프레임워크를 가지고 있으며, Forrester 의 보고서에 따르면 4명 중 1명의 기술 임원이 AI 거버넌스에 대해 이사회에 보고하게 될 것입니다.

이에는 충분한 이유가 있습니다. 효과적인 AI 거버넌스는 기업이 AI의 잠재력을 실현하면서도 안전하고 책임감 있게, 그리고 윤리적으로 사용하도록 보장하며, 법적 및 규제 요구 사항을 준수하게 합니다. 강력한 거버넌스 프레임워크는 조직이 위험을 줄이고, 투명성과 책임성을 보장하며, 내부적으로, 고객과 대중에게 신뢰를 구축하는 데 도움이 됩니다.

AI 지배구조, 위험 및 준수 모범 사례

AI 위험에 대한 보호를 구축하려면, 기업들은 AI를 구현하기 전에 철저한 AI 지배구조, 위험 및 준수 계획을 신중하게 개발해야 합니다. 시작하는 방법은 다음과 같습니다.

AI 전략 만들기
AI 전략은 조직의 전반적인 AI 목표, 기대치 및 비즈니스 케이스를 개요화합니다. 이는 잠재적인 위험과 보상뿐만 아니라 회사의 AI에 대한 윤리적 입장을 포함해야 합니다. 이 전략은 조직의 AI 시스템과 이니셔티브에 대한 지침이 되어야 합니다.

AI 거버넌스 구조 만들기
AI 거버넌스 구조를 만드는 것은 AI 거버넌스에 대한 결정을 내리는 사람들을 임명하는 것으로 시작합니다. 종종, 이는 AI 거버넌스 위원회, 그룹 또는 이사회의 형태를 취하며, 이는 이상적으로는 고위 경영진과 AI 전문가뿐만 아니라 IT, 인사, 법무 부서와 같은 다양한 사업 부서를 대표하는 구성원들로 구성됩니다. 이 위원회는 AI 거버넌스 프로세스와 정책을 만들고 AI 구현과 거버넌스의 다양한 측면에 대한 책임을 할당하는 역할을 합니다.

구조가 AI 구현을 지원하기 위해 마련되면, 위원회는 회사의 AI 거버넌스 프레임워크에 필요한 변경을 만들고, 새로운 AI 제안을 평가하고, AI의 영향과 결과를 모니터링하고, AI 시스템이 윤리적, 법적 및 규제 표준을 준수하고 회사의 AI 전략을 지원하는지 확인하는 책임이 있습니다.

AI 거버넌스를 개발하는 데 있어, 조직들은 미국 NIST의 AI 위험 관리 프레임워크, 영국의 AI 안전 연구소가 오픈 소스화한 Inspect AI 안전 테스팅 플랫폼, 유럽 위원회의 신뢰할 수 있는 AI를 위한 윤리 가이드라인 및 OECD의 AI 원칙과 같은 자발적 프레임워크로부터 지침을 얻을 수 있습니다.

AI 지배구조, 위험 및 준수를 위한 주요 정책

조직이 거버넌스 위험을 철저히 평가한 후에 AI 리더들은 이를 완화하기 위한 정책을 설정할 수 있습니다. 이러한 정책들은 조직 내에서 AI를 다루는 모든 사람들이 따라야 할 명확한 규칙과 프로세스를 만듭니다. 가능한 많은 시나리오를 커버할 수 있을 정도로 자세해야 하지만, AI의 발전에 따라 진화해야 합니다. 주요 정책 영역에는 다음이 포함됩니다:

개인정보 보호
디지털 세상에서 개인의 프라이버시 위험은 이미 중요한 문제지만, AI는 이를 더욱 중요하게 만듭니다. AI가 사용하는 개인 데이터의 양이 많아짐에 따라, 보안 위반은 지금보다 더 큰 위협이 될 수 있으며, AI는 개별 동의 없이도 개인 정보를 수집하고 노출하거나 해를 끼치는 데 사용할 수 있는 잠재력을 가질 수 있습니다. 예를 들어, AI는 개인 정보를 집계하여 개인의 상세 프로필을 생성하거나 개인 데이터를 감시에 도움이 되도록 사용할 수 있습니다.

개인정보 보호 정책은 AI 시스템이 데이터를 책임감 있고 안전하게 처리하도록 보장합니다, 특히 민감한 개인 데이터를. 이 분야에서, 정책은 다음과 같은 보호 조치를 포함할 수 있습니다:

  • 특정 목적에 필요한 최소한의 데이터 수집 및 사용
  • 개인 데이터 익명화
  • 사용자가 데이터 수집에 대해 동의하는 것을 확인
  • 보안 위반에 대비하여 고급 보안 시스템을 구현하는 것
  • 데이터를 지속적으로 모니터링
  • 개인 정보 보호법 및 규정을 이해하고 준수를 보장

IP 보호
AI를 도입하는 기업들에게는 IP와 독점적인 회사 데이터의 보호가 주요한 고려사항입니다. 사이버 공격은 조직의 중요한 데이터에 대한 위협의 한 형태를 나타냅니다. 하지만 상업적 AI 솔루션도 우려를 일으킵니다. 회사들이 자신의 데이터를 ChatGPT와 같은 큰 LLM에 입력하면, 그 데이터는 노출될 수 있습니다 - 다른 엔티티가 그것으로부터 가치를 창출할 수 있게 합니다.

한 가지 해결책은 기업들이 삼성, JP 모건 체이스, 아마존, 버라이즌과 같은 기업들이 취한 단계인 제3자 GenAI 플랫폼의 사용을 금지하는 것입니다. 그러나 이는 기업들이 대규모 LLM의 일부 이점을 활용하는 능력을 제한합니다. 그리고 대규모 모델을 자체적으로 만들 수 있는 리소스를 가진 기업은 극히 소수입니다.

그러나, 회사의 데이터로 맞춤화된 작은 모델들이 답을 제공할 수 있습니다. 이들은 상업적인 LLMs가 제공하는 데이터의 폭을 활용하지는 않지만, 큰 모델에서 발견되는 관련 없고 잠재적으로 거짓 정보 없이 고품질, 맞춤형 데이터를 제공할 수 있습니다.

투명성과 설명 가능성
AI 알고리즘과 모델은 복잡하고 불투명할 수 있어, 그들의 결과가 어떻게 생성되는지 파악하기 어렵습니다. 이는 신뢰에 영향을 미치고 위험에 대한 적극적인 조치를 취하는 데 어려움을 초래합니다.

조직은 다음과 같은 정책을 도입하여 투명성을 높일 수 있습니다:

  • 처음부터 AI에 책임성을 구축하는 프레임워크를 따르는 것
  • AI 시스템의 행동과 결정에 대한 감사 추적 및 로그 요구
  • 디자인부터 배포까지 모든 단계에서 인간이 내린 결정의 기록을 유지하는 것
  • 설명 가능한 AI 기법 채택

머신러닝의 결과를 재현할 수 있음으로써 감사 및 검토가 가능하며, 모델 성능 및 준수에 대한 신뢰를 구축합니다. 알고리즘 선택은 AI 시스템을 설명 가능하고 투명하게 만드는 데 중요한 고려사항입니다.

신뢰성
AI는 제공된 데이터와 그것을 훈련시키는 사람만큼 좋습니다. 대규모 LLM이 온라인 데이터의 대량을 사용하기 때문에 부정확한 정보는 피할 수 없습니다. ChatGPT와 같은 GenAI 플랫폼은 때때로 사소한 사실적 부정확성에서 완전히 만들어진 환영에 이르기까지 부정확한 결과를 생성하는 것으로 악명이 높습니다. 신뢰성과 정확성을 높일 수 있는 정책과 프로그램에는 다음이 포함됩니다:

  • 데이터에 대한 강력한 품질 보증 프로세스
  • 사용자들이 거짓 정보를 식별하고 방어하는 방법에 대해 교육하는 것
  • 엄격한 모델 테스트, 평가 및 지속적인 개선

회사들은 대규모 상업 모델을 사용하는 대신 고품질의 검증된 데이터로 자체 모델을 훈련시킴으로써 신뢰성을 높일 수 있습니다.

에이전트 시스템을 사용하는 것은 신뢰성을 향상시키는 또 다른 방법입니다. Agentic AI는 다른 엔티티를 대신해 작업을 수행할 수 있는 "에이전트"로 구성되어 있습니다. 전통적인 AI 시스템은 입력과 프로그래밍에 의존하지만, 에이전트 AI 모델은 사람 직원처럼 행동하도록 설계되어, 맥락과 지시를 이해하고, 목표를 설정하고, 필요에 따라 적응하면서 그 목표를 독립적으로 달성하도록 설계되었습니다. 이러한 모델은 사용자의 행동 및 시스템의 초기 훈련 데이터를 넘어서 다른 소스에서 학습할 수 있으며, 엔터프라이즈 데이터에 대한 복잡한 추론을 할 수 있습니다.

합성 데이터 기능은 평가 데이터셋, 즉 소프트웨어 테스트 스위트의 GenAI 등가물을 분 단위로 빠르게 생성함으로써 에이전트 품질을 향상시키는 데 도움이 될 수 있습니다. 이는 AI 에이전트 응답 품질을 향상시키는 과정을 크게 가속화하고, 생산 시간을 단축하며, 개발 비용을 줄입니다.

편향과 공정성
사회적 편향이 AI 시스템에 침투하는 것은 또 다른 위험입니다. 우려되는 점은 AI 시스템이 사회적 편향을 영속화 하여 인종, 성별 또는 민족 등의 요인에 기반한 불공정한 결과를 만들 수 있다는 것입니다. 이는 차별을 초래하며, 채용, 대출, 건강관리 등의 분야에서 특히 문제가 됩니다. 조직은 다음과 같은 정책과 실천을 통해 이러한 위험을 완화하고 공정성을 증진할 수 있습니다:

  • 공정성 지표 만들기
  • 대표적인 훈련 데이터 세트 사용
  • 다양한 개발 팀 구성하기
  • 인간의 감독과 검토를 보장
  • 편향과 공정성에 대한 결과 모니터링

노동 인력
AI의 자동화 기능은 인간 노동 인력에 영향을 미칠 것입니다. Accenture에 따르면, 산업 전반에 걸쳐 근무 시간의 40%가 생성 AI에 의해 자동화되거나 보강될 수 있으며, 은행, 보험, 자본 시장, 소프트웨어 등이 가장 높은 잠재력을 보입니다. 이는 Goldman Sachs에 따르면 미국 직업의 3분의 2에 영향을 미칠 것이지만, 이 회사는 AI가 일반적으로 직업 손실을 초래하기보다는 현재의 근로자를 보완할 가능성이 더 높다고 결론 내렸습니다. 인간 전문가는 여전히 필수적이며, 이상적으로는 더 높은 가치의 작업을 수행하면서 자동화가 저가치, 지루한 작업을 돕습니다. 기업 리더들은 대부분 AI를 인간 직원의 경쟁자가 아닌 조종사로 보고 있습니다.

그럼에도 불구하고, 일부 직원들은 AI에 대해 흥분하기보다는 더 걱정할 수 있습니다. 기업들은 다음과 같은 방법으로 직원들이 AI 이니셔티브를 두려워하는 대신 적극적으로 받아들이도록 도울 수 있습니다:

  • 직원들에게 AI 기본사항, 윤리적 고려사항, 회사 AI 정책에 대해 교육
  • 직원들이 AI 도구로부터 얻을 수 있는 가치에 초점을 맞추는 것
  • 필요에 따라 직원의 역량을 재편성
  • 비즈니스 사용자를 강화하기 위해 기술 능력에 대한 접근을 민주화

데이터와 AI 거버넌스 통합

AI는 독특한 거버넌스 도전을 제시하지만, 데이터 거버넌스와 깊게 연결되어 있습니다. 기업들은 데이터베이스, 웨어하우스, 레이크 간에 파편화된 거버넌스에 어려움을 겪고 있습니다. 이는 데이터 관리, 보안, 공유를 복잡하게 만들며, AI에 직접적인 영향을 미칩니다. 통합 거버넌스는 전반적인 성공을 위한 핵심이며, 상호 운용성을 촉진하고, 규제 준수를 단순화하고, 데이터 및 AI 이니셔티브를 가속화합니다.

통합 거버넌스는 데이터와 AI 모두의 성능과 안전성을 향상시키고, 투명성을 만들고, 신뢰를 구축합니다. 이는 고품질, 최신 데이터에 대한 원활한 접근을 보장하며, 더 정확한 결과와 향상된 의사결정을 가능하게 합니다. 데이터 사일로를 제거하는 통합 접근 방식은 효율성과 생산성을 높이며 비용을 줄입니다. 이 프레임워크는 규제 요구 사항과 AI 모범 사례에 맞춰 명확하고 일관된 데이터 워크플로우와 함께 보안을 강화합니다.

Databricks Unity Catalog는 데이터 및 AI를 위한 업계 유일의 통합된 개방형 거버넌스 솔루션으로, Databricks Data Intelligence Platform에 내장되어 있습니다. Unity Catalog를 사용하면, 조직은 모든 유형의 데이터와 AI 구성 요소를 원활하게 관리할 수 있습니다. 이를 통해 조직은 플랫폼 간에 신뢰할 수 있는 데이터와 AI 자산을 안전하게 발견하고, 접근하고, 협업할 수 있게 되어, 데이터와 AI의 전체 잠재력을 해제하는 데 도움이 됩니다.

AI 지배구조에 대한 심층적인 이해를 위해, 우리의 전자책인 데이터 및 AI 지배에 대한 종합 가이드를 참조하십시오.

게시물을 놓치지 마세요

관심 있는 카테고리를 구독하고 최신 게시물을 받은편지함으로 받아보세요