주요 컨텐츠로 이동

(번역: Youngkyong Ko) Original Post

전 세계 정책 입안자들의 인공지능에 대한 관심이 점점 높아지고 있습니다. 유럽연합(EU) 의회에서 지금까지 세계에서 가장 포괄적인 AI 규제가 상당한 표 차이로 통과되었고, 미국에서는 최근 연방 정부가 AI 사용에 대한 통제를 위해 몇 가지 주목할 만한 조치를 취했으며, 주 정부 차원에서도 활동이 활발히 이루어지고 있습니다. 다른 곳의 정책 입안자들도 세심한 주의를 기울이며 AI 규제를 마련하기 위해 노력하고 있습니다. 이러한 새로운 규제는 독립형 AI 모델 그리고 고객이 AI 애플리케이션을 구축하는 데 점점 더 많이 활용하고 있는 복합 AI 시스템의 개발과 사용에 영향을 미칠 것입니다.

2부로 구성된 "AI 규제" 시리즈를 따라가 보세요. 1부에서는 최근 미국을 비롯한 여러 곳에서 활발하게 진행되고 있는 AI 정책 수립에 대한 개요를 살펴보고, 전 세계적으로 반복되는 규제 주제를 강조합니다. 2부에서는 데이터브릭스 데이터 인텔리전스 플랫폼이 고객이 새로운 의무를 충족하는 데 어떻게 도움이 되는지 자세히 살펴보고 책임 있는 AI에 대한 데이터브릭스의 입장을 논의합니다.

최근 미국의 주요 AI 규제 동향

바이든 행정부는 최근 AI에 대한 많은 규제 개발을 주도하고 있습니다. 2023년 10월 30일, 백악관은 안전하고 안전하며 신뢰할 수 있는 AI 개발 및 사용에 관한 광범위한 행정명령을 발표했습니다. 이 행정명령은 다음에 대한 지침을 제공합니다:

  • 연방 정부 내 AI 사용
  • 연방 기관이 AI와 합리적으로 관련된 기존 규정(예: 보호 대상 그룹에 대한 차별 방지, 소비자 안전 공개 요건, 반독점 규정 등)을 활용하는 방법.
  • 고기능 '이중 용도 기반 모델'(즉, 프론티어 모델) 개발자가 테스트 결과를 공유하는 방법과 다양한 기관에서 수행해야 할 다양한 연구, 보고서 및 정책 수립을 나열하며, 특히 상무부 산하 국립표준기술연구소(NIST)가 중요한 역할을 수행해야 한다고 명시하고 있습니다.

행정명령에 신속하게 대응하기 위해 미국 관리예산처(OMB)는 이틀 후 미국 정부 전체 기관에 AI 사용과 정부의 AI 조달을 모두 다루는 메모 초안을 보냈습니다.

NIST 및 미국 AI 안전 연구소의 역할

행정명령에 따른 NIST의 주요 역할 중 하나는 AI 위험 관리 프레임워크(NIST AI RMF)를 생성형 AI에 적용하도록 확장하는 것입니다. NIST AI RMF는 행정명령에 따라 연방 정부 전체에 적용될 예정이며, 정책 입안자들이 제안하는 AI 규제의 기초로 점점 더 많이 인용되고 있습니다. 최근 영국 AI 안전 서밋에서 해리스 부통령이 발표한 미국 AI 안전 연구소(USAISI)도 NIST 내에 있습니다. 연구와 전문 지식으로 USAISI를 지원하기 위해 새로운 컨소시엄이 구성되었으며, 데이터브릭스¹가 초기 멤버로 참여하고 있습니다. 2024년 3월 7일에 USAISI에 대한 1,000만 달러의 기금이 발표되었지만, USAISI가 임무를 적절히 수행하기 위해서는 추가 자원이 필요하다는 우려가 남아 있습니다. 

이 지침에 따라 USAISI는 AI 위험 평가 메커니즘에 대한 가이드라인을 만들고, 강력한 모델을 행정명령에 따라 '이중 사용 기반 모델(강화된 조사가 필요한 모델)'로 분류하는 기준 설정, 콘텐츠 인증, AI 생성 콘텐츠 워터마킹, 알고리즘 차별 식별 및 완화, 투명성 보장, 개인정보 보호 AI 채택 활성화 등의 문제에 대해 규제기관이 사용할 기술 지침을 개발할 것입니다.

기타 연방 기관의 조치

수많은 연방 기관이 바이든 행정명령의 명령에 따라 AI와 관련된 조치를 취했습니다. 상무부는 현재 가장 강력한 AI 시스템 개발자로부터 중요한 정보, 특히 AI 안전 테스트 결과에 관한 보고서를 받고 있으며, 외국 고객이 자사 서비스를 사용하여 강력한 모델을 훈련할 때 보고를 요구하는 미국 클라우드 인프라 제공업체에 적용되는 규칙 초안을 발표했습니다. 국방부, 국무부, 재무부, 교통부, 보건복지부 등 9개 기관이 국토안보부에 중요 인프라에서의 AI 사용과 안전에 관한 위험 평가서를 제출했습니다. 연방거래위원회(FTC)는 기존 규정을 시행하는 데 있어 AI에 대한 노력을 강화하고 있습니다. 이러한 노력의 일환으로 FTC는 2024년 1월 25일에 AI에 초점을 맞춘 FTC 테크 서밋을 개최했습니다(데이터브릭스의 수석 과학자-신경망 담당자인 조나단 프랭클이 패널로 참여). 행정명령에 따라, 그리고 AI를 포함한 기술 문제에 대해 백악관에 조언하기 위한 지속적인 노력의 일환으로 미국 통신정보국(NTIA)은 널리 사용되는 모델 가중치가 있는 이중 사용 기반 모델에 대한 의견 요청을 발표했습니다.

의회에서는 어떤 일이 일어나고 있나?

미국 의회는 지금까지 AI 규제를 위한 몇 가지 잠정적인 조치를 취했습니다. 2023년 9월부터 12월까지 상원은 일련의 'AI 인사이트 포럼'을 개최하여 의원들이 AI에 대해 배우고 잠재적인 입법을 준비할 수 있도록 지원했습니다. 2023년 말에는 AI 규제를 위한 초당적 법안 두 개가 발의되었는데, 하나는 연방 정부 내 AI 사용에 대한 가이드라인을 마련하기 위해 Jerry Moran(R-KS) 상원의원과 Mark Warner(D-VA) 상원의원이 발의한 것이고 다른 하나는 고위험 AI의 상업적 사용을 정의하고 규제하기 위해 John Thune(R-SD), Amy Klobuchar(D-MN)가 발의한 법안입니다. 한편, 2024년 1월 상원 상무위원회 위원장인 마리아 캔트웰(D-WA)은 AI 위험을 해결하고 업계의 혁신을 촉진하기 위한 일련의 초당적 법안들을 곧 도입할 것이라고 밝혔습니다.

2월 말, 하원은 하원의원이 위원장을 맡는 자체 AI 태스크포스를 구성한다고 발표했습니다. 제이 오버놀트 의원(R-CA-23)과 테드 리우 의원(D-CA-36)이 위원장을 맡았습니다. 이 태스크포스의 첫 번째 주요 목표는 국립과학재단의 국가 AI 연구 자원(NAIRR) 파일럿을 전액 지원 프로그램으로 만드는 CREATE AI 법안을 통과시키는 것입니다(데이터브릭스는 NAIRR 파일럿을 위해 데이터브릭스 데이터 인텔리전스 플랫폼의 인스턴스를 제공하고 있습니다).

AI Regulation is Rolling Out…And the Data Intelligence Platform is Here to Help

주(State) 차원의 규제

개별 주에서도 AI를 규제하는 방법을 검토하고 있으며, 경우에 따라서는 법안을 통과시켜 법으로 제정하기도 합니다. 2023년에 91개 이상의 AI 관련 법안이 주 하원에 발의되었습니다. 캘리포니아는 지난해 개빈 뉴섬 주지사가 생성형 AI에 초점을 맞춘 행정 명령을 발표해 화제를 모았습니다. 이 명령은 주 정부 기관에 개인정보 보호 및 시민권, 사이버 보안, 인력 혜택과 같은 주제에 대한 향후 규제에 대한 일련의 보고서와 권장 사항을 제출하도록 했습니다. 코네티컷, 메릴랜드, 텍사스 같은 다른 주에서는 AI에 대한 추가 연구, 특히 주 정부에 미치는 영향에 대한 법안을 통과시켰습니다.

주 의원들은 연방 의원들이 겪는 당파적 교착 상태를 피하고 단일 정당 통제하에 있는 주 정부가 기록적으로 많기 때문에 입법을 신속하게 추진할 수 있는 드문 위치에 있습니다. 2024년에 이미 20개 주의 의원들은 89개의 AI 관련 법안 또는 결의안을 발의했습니다. 입법 시험장으로서의 캘리포니아의 독특한 위치와 AI 관련 기업의 집중으로 인해 캘리포니아주는 입법의 선구자 역할을 하고 있으며, 캘리포니아 주의회에서는 여러 잠재적인 AI 법안이 여러 단계에 걸쳐 검토되고 있습니다. 코네티컷 주에서도 제안된 포괄적인 AI 법안이 상당히 빠른 속도로 진행되고 있습니다.

미국 외 지역

AI를 관리하기 위한 규제 프레임워크를 추구하는 것은 미국만이 아닙니다. 이 분야에서 규제의 미래에 대해 생각할 때, 글로벌 관점을 유지하고 다른 정부와 법률 기관이 제정하고 있는 새로운 규제 프레임워크를 주시하는 것이 중요합니다.

유럽 연합

EU는 포괄적인 AI 규정을 제정하기 위한 노력을 주도하고 있으며, 광범위한 EU AI 법안의 정식 제정이 임박했습니다. EU 회원국들은 2024년 2월 2일에 만장일치로 법안에 합의했고, 2024년 3월 13일에 의회에서 법안이 통과되었습니다. 법 시행은 2024년 말에서 2025년 초부터 단계적으로 시작될 예정입니다. EU AI 법은 건강, 안전, 기본권에 대한 잠재적 피해에 중점을 두고 위험 수준에 따라 AI 애플리케이션을 분류합니다. 이 법은 고위험으로 간주되는 AI 애플리케이션에 더 엄격한 규제를 부과하는 한편, 허용할 수 없는 위험을 초래하는 것으로 간주되는 애플리케이션은 전면적으로 금지합니다. 이 법은 개발자와 배포자 간의 책임을 적절히 분담하고자 합니다. 기초 모델 개발자는 이러한 모델이 안전하고 안전하며 윤리적이며 투명하도록 설계된 일련의 특정 의무를 준수해야 합니다. 이 법은 고위험 사용 사례에 배포되거나 "시스템적 위험"을 초래하는 기반 모델(즉, 프론티어 모델)의 일부로 배포되는 경우를 제외하고 오픈 소스 AI에 대해 일반적인 면책를 제공합니다.

영국

영국은 지금까지 포괄적인 AI 규제를 추진하지는 않았지만, 2023년 11월 초 역사적인 블레츨리 공원에서 열린 영국 AI 안전 서밋(데이터브릭스 참여)은 AI 위험, 기회 및 잠재적 규제를 다루기 위해 지금까지 가장 눈에 띄고 광범위하게 참석한 글로벌 행사였습니다. 이 서밋은 프론티어 모델이 제시하는 위험에 초점을 맞추면서도 AI가 사회에 주는 혜택과 AI 혁신을 촉진해야 할 필요성도 강조했습니다. 

영국 AI 서밋의 일환으로 28개국(중국 포함)과 EU는 AI가 제시하는 위험과 기회에 대응하기 위한 국제적 협력을 촉구하는 블레클리 선언(Bletchley Declaration)에 동의했습니다. 서밋과 함께 영국과 미국은 국가 AI 안전 기관의 설립을 발표하고 앞으로 이들 기관이 서로 긴밀히 협력하기로 약속했습니다(영국 AI 안전 기관은 1억 파운드의 초기 자금을 지원받았으며, 미국이 지금까지 자국 AI 안전 기관에 배정한 1천만 달러와 대조적으로 영국은 1억 파운드의 초기 자금을 지원받았습니다). 또한 글로벌 AI 안전 서밋을 추가로 개최하기로 합의했으며, 다음 서밋은 2024년 5월 한국이 주최하는 "가상 미니 서밋"과 2024년 11월 프랑스가 주최하는 대면 서밋이 될 예정입니다.

그 외 지역

영국이 AI 안전 서밋을 개최하고 바이든 행정부가 AI 관련 행정 명령을 발표한 같은 주에 G7의 지도자들은 AI에 관한 국제 지침 원칙과 AI 개발자를 위한 자발적 행동 강령을 발표했습니다. 한편, 전 세계 여러 나라에서 AI 규제가 빠른 속도로 논의되고 제안되고 있습니다.

자발적 사전 약속에 대한 압력

미국 백악관, G7 지도자, 영국 AI 안전 서밋의 수많은 참석자를 포함한 많은 당사자들이 계류 중인 AI 규정과 새로운 업계 표준을 자발적으로 준수할 것을 촉구했습니다. AI를 사용하는 기업들은 앞으로 다가올 규제의 일반적인 요건을 충족하기 위해 지금 당장 조치를 취해야 한다는 압박에 직면하게 될 것입니다.

예를 들어, AI 협정은 EU AI 법이 시행되기 전에 당사자들이 자발적으로 이를 준수할 것을 촉구하는 프로그램입니다. 마찬가지로 백악관은 기업들이 자발적으로 안전하고 안전한 AI 관행을 구현하도록 장려해 왔으며, 최근에는 이러한 약속의 최신 라운드가 의료 회사에 적용되고 있습니다. 히로시마 프로세스에 따라 OECD가 만든 고급 AI 시스템 행동 강령(영국 AI 안전 정상회의 주에 G7 정상들이 발표한)은 자발적이지만 강력한 생성 AI 모델 개발자에게 강력히 권장되고 있습니다.

이러한 자발적 약속에 대한 압박이 커지면서 많은 기업이 조만간 다양한 규정 준수 의무에 직면하게 될 것입니다. 또한 많은 기업들은 자발적인 규정 준수를 잠재적인 경쟁 우위로 보고 있습니다.

이 모든 노력의 공통점은 무엇일까요?

새로운 AI 규정은 다양하고 복잡한 요구 사항을 가지고 있지만 반복되는 주제를 담고 있습니다. 일반적으로 5가지 주요 영역에서 의무가 발생합니다:

  1. AI 개발 및 배포 주기의 모든 단계에서 요구되는 데이터 및 모델 보안과 개인정보 보호
  2. 출시 전 위험 평가, 계획 및 완화 - 데이터 학습 및 가드레일 구현에 중점을 두고 편향성, 부정확성 및 기타 잠재적 피해를 해결
  3. 출시 시 필요한 문서 - 개발 과정에서 수행한 단계와 AI 모델 또는 시스템의 특성(기능, 제한 사항, 학습 데이터 설명, 위험, 완화 조치 등)에 관한 내용을 다룸
  4. 출시 후 모니터링 및 지속적인 위험 완화 - 부정확하거나 기타 유해한 결과물 생성 방지, 보호 대상 그룹에 대한 차별 방지, 사용자가 AI를 다루고 있음을 인지하도록 하는 데 중점
  5. 대규모 모델을 학습하고 실행하는 데 사용되는 에너지로 인한 환경 영향 최소화

새로운 규제가 데이터브릭스 고객에게 의미하는 것

이러한 정부 활동의 소용돌이로 인해 생성된 많은 헤드라인은 고위험 AI 사용 사례와 프론티어 AI 위험에 초점을 맞추고 있지만, 단기적으로는 다른 AI의 개발 및 배포에도 영향을 미칠 수 있으며, 특히 EU AI법에 대한 자발적인 제정 전 약속을 하라는 압력과 다양한 영역에서 짧은 기간으로 인해 Biden 행정명령에서 비롯된 것일 가능성이 높습니다. 제안된 다른 대부분의 AI 규제 및 규정 준수 프레임워크와 마찬가지로 데이터 거버넌스, 데이터 보안, 데이터 품질이 가장 중요합니다.

데이터브릭스는 현재 진행 중인 규제 개발을 매우 신중하게 따르고 있습니다. 데이터브릭스는 신중한 AI 규제를 지지하며, 고객이 AI 규제 요건과 책임감 있는 AI 사용 목표를 달성할 수 있도록 최선을 다하고 있습니다. AI의 발전은 AI 개발 및 사용에 관여하는 모든 사람이 AI 규정의 목표에 따라 책임감 있고 윤리적인 관행을 준수함으로써 지능형 애플리케이션에 대한 신뢰를 구축하는 데 달려 있다고 믿습니다. 이러한 목표를 달성하려면 모든 조직이 데이터와 AI 모델에 대한 완전한 소유권과 통제권을 확보하고 AI 개발 및 배포의 모든 단계에 대한 포괄적인 모니터링, 개인정보 보호 제어 및 거버넌스를 이용할 수 있어야 합니다. 이러한 목표를 달성하기 위해 데이터브릭스 데이터 인텔리전스 플랫폼을 사용하면 데이터, 모델 학습, 관리, 모니터링, 전체 AI 라이프사이클의 거버넌스를 통합할 수 있습니다. 이러한 통합 접근 방식을 통해 조직은 데이터 품질을 제공하고, 보다 안전한 애플리케이션을 제공하며, 규제 표준을 준수하는 데 도움이 되는 책임감 있는 AI 목표를 달성할 수 있습니다. 

다음 시리즈의 두 번째 포스팅에서는 고객이 데이터브릭스 데이터 인텔리전스 플랫폼의 툴을 활용하여 AI 규정을 준수하고 AI의 책임 있는 사용에 관한 목표를 달성할 수 있는 방법을 자세히 살펴볼 예정입니다. 특히, AI 규정의 안전, 보안, 거버넌스 문제를 해결하는 데 매우 유용한 고급 통합 거버넌스 및 보안 솔루션인 Unity Catalog와 전체 AI 및 데이터 스펙트럼에 걸쳐 유용한 강력한 모니터링 도구인 Lakehouse Monitoring에 대해 설명할 예정입니다.

AI와 관련된 위험을 완화하는 방법에 관심이 있으시다면 여기에서 데이터브릭스 AI 보안 프레임워크에 가입하세요.

 

¹ 데이터브릭스는 인공지능 안전 연구소 컨소시엄에서 NIST와 협력하여 과학에 기반하고 경험적으로 뒷받침되는 AI 측정 및 정책에 대한 지침과 표준을 개발하여 전 세계 AI 안전의 토대를 마련하고 있습니다. 이는 미국이 적절한 위험 관리 전략을 통해 프론티어 모델부터 새로운 애플리케이션 및 접근 방식에 이르기까지 차세대 AI 모델 또는 시스템의 기능에 대응할 수 있도록 준비시키는 데 도움이 될 것입니다. NIST는 이 컨소시엄에 따라 상용 제품을 평가하지 않으며 사용된 제품이나 서비스를 보증하지 않습니다. 이 컨소시엄에 대한 자세한 정보는 다음에서 확인할 수 있습니다: 연방관보 공지 - USAISI 컨소시엄.

Databricks 무료로 시작하기

관련 포스트

모든 회사 블로그 포스트 보기