メインコンテンツへジャンプ

世界中の政策立案者が人工知能への関心を高めています。 欧州連合(EU)議会では、これまでで最も包括的なAI規制が大差で可決されたばかりです。米国では最近、連邦政府がAIの利用を規制するための注目すべき措置をいくつか講じており、州レベルでも動きがあります。 他の国の政策立案者たちも細心の注意を払い、AI規制の整備に取り組んでいます。 これらの新たな規制は、単体のAIモデルと、Databricksの顧客がAIアプリケーションを構築するために利用する機会が増えている複合AIシステムの両方の開発と使用に影響を与えるでしょう。

2部構成の「AI規制」シリーズをご覧ください。 パート1では、米国やその他の国におけるAI政策立案の最近の活発な動きを概観し、世界的に繰り返されている規制のテーマに焦点を当てます。 パート2では、Databricksのデータインテリジェンスプラットフォームがどのようにお客様の新たな義務への対応を支援できるかを深く掘り下げ、責任あるAIに対するDatabricksの見解について説明します。

米国における最近の主なAI規制動向

バイデン政権は、AIに関する最近の多くの規制動向を後押ししています。 2023年10月30日、ホワイトハウスは「AIの安全、安心かつ信頼できる開発および利用に関する広範な大統領令」を発表しました。 大統領令は、以下のガイドラインを定めています:

  • 連邦政府におけるAIの活用
  • 連邦機関がAIと合理的に関連する既存の規制を活用する方法(保護対象グループに対する差別の防止、消費者の安全に関する情報開示義務、独占禁止規則など)
  • 高度な能力を持つ「デュアルユース基盤モデル」(すなわちフロンティアモデル)の開発者が、そのテスト努力の結果をどのように共有できるか、また、商務省(NIST)内の国立標準技術研究所が果たすべき特に重要な役割を中心に、様々な機関が取り組むべき様々な研究、報告書、政策立案を挙げています

この大統領令を受け、米国行政管理予算局(OMB)は2日後、米国政府全省庁に対し、AIの利用と政府によるAIの調達の両方に対応するメモ案を発表しました。

NISTと米国AI安全研究所の役割

大統領令の下でのNISTの主な役割の1つは、AIリスク管理フレームワーク(NIST AI RMF)を拡張し、生成AIに適用することです。 NIST AI RMFは、大統領令の下、連邦政府全体にも適用され、政策立案者によるAI規制案の基礎として引用されることが増えています。 英国のAI安全サミットでハリス副総裁が発表した、最近設立された米国AI安全研究所(USAISI)もNIST内に設置されています。 USAISIをリサーチと専門知識でサポートする新しいコンソーシアムが結成され、Databricks¹が初期メンバーとして参加しています。 2024年3月7日、USAISIに1,000万ドルの資金拠出が発表されましたが、USAISIがその使命を十分に果たすためには、さらなるリソースが必要になるという懸念が残っています。

この指令の下、USAISIはAIのリスクを評価する仕組みのガイドラインを作成し、強力なモデルを大統領令に基づく「デュアルユース基盤モデル」(厳重な審査が必要なモデル)に分類するための閾値の設定、コンテンツの認証、AIが生成したコンテンツの電子透かし、アルゴリズムによる差別の特定と緩和、透明性の確保、プライバシーを保護するAIの採用の可能性などの問題について、規制当局が使用する技術ガイダンスを作成します。

他の連邦政府機関による措置

バイデン大統領令に基づき、数多くの連邦機関がAIに関連する措置を講じています。 商務省は現在、最も強力なAIシステムの開発者から重要な情報、特にAIの安全性テスト結果に関する報告を受けており、米国のクラウド・インフラ・プロバイダーに適用される規則案を発表しています。 国防総省、国務省、財務省、運輸省、保健省を含む9つの機関が、重要インフラにおけるAIの使用と安全性に関するリスク評価を国土安全保障省に提出しました。 米連邦取引委員会(FTC)は、既存の規制を強化するため、AIに関する取り組みを強化しています。 この取り組みの一環として、FTCは2024年1月25日にAIに焦点を当てたFTC技術サミットを開催しました(Databricksのチーフサイエンティストであるジョナサン・フランクルがパネリストとして参加)。 大統領令に従い、またAIを含む技術問題についてホワイトハウスに助言する継続的な取り組みの一環として、米国電気通信情報局(NTIA)は、広く利用可能なモデルウェイトを持つデュアルユース基盤モデルに関する意見募集を行いました。

議会で何が起きているのか

米国議会はこれまで、AIを規制するための暫定的な措置をいくつか講じてきました。 2023年9月から12月にかけて、上院議員はAIについて学び、立法化の可能性に備えるため、一連の「AIインサイトフォーラム」を実施しました。 1つはジェリー・モラン上院議員(共和党)とマーク・ワーナー上院議員(民主党)が提出した、 連邦政府内でのAI 利用に関するガイドライン定める法案 、もう1つはジョン・チューン上院議員(共和党)とエイミー・クロブチャー上院議員(民主党)が提出した、 リスクの高いAIの 商業利用を 定義し規制する法案です。 一方、2024年1月には、マリア・キャントウェル上院商務委員長(民主党)が、 AIのリスクに対処し、業界のイノベーションを促進するための一連の超党派法案近く提出する意向を示しました。

下院は2月下旬、ジェイ・オバーノルテ議員(カリフォルニア州選出、R-23)とテッド・リュー議員(カリフォルニア州選出、D-36)を委員長とする独自のAIタスクフォースの設置を発表。 このタスクフォースの最初の主な目的は、全米科学財団の国立AI研究リソース(NAIRR)パイロットを全額出資のプログラムにするCREATE AI法を可決することです(Databricksは NAIRRパイロットのためにDatabricks データインテリジェンスプラットフォームのインスタンスを提供しています

AI規制が始動...データ・インテリジェンス・プラットフォームが支援

州レベルでの規制

各州でもAIを規制する方法を検討し、場合によっては法案を可決・署名して法制化する動きもあります。 2023年には91以上の AI関連法案が 州議会に提出 されました。 カリフォルニア州では昨年、ギャビン・ニューサム知事が生成AIに焦点を当てた行政命令を発令 、大きな話題となりました。 同大統領令では、プライバシーや公民権、サイバーセキュリティ、労働者の福利厚生といったテーマについて、州政府機関に一連の報告書と今後の規制に関する勧告を出すよう命じています。コネティカット州、メリーランド州、テキサス州などの他の州では、AI、特に州政府への影響に関するさらなる研究のための法律が可決されました。

州政府は過去最多の政党を擁し、連邦政府のような党派間の膠着状態を回避しているため、州議会議員は法案を迅速に提出できる稀有な立場にあります。すでに2024年には 20州の議員AIに関連する89の法案や決議を提出しています。 カリフォルニア州は立法の実験場としてユニークな位置にあり、AIに関連する企業が集中しているため、立法の先導者となっており、カリフォルニア州議会ではいくつかのAI関連法案がさまざまな段階で審議されています。コネティカット州でも、包括的なAI法案の提案がかなり速いペースで進められています。

米国外

AIを管理する規制の枠組みを追求しているのは米国だけではありません。 この分野における規制の将来について考えるとき、グローバルな視野を維持し、他の政府や法的機関が制定しつつある新たな規制の枠組みを注視することが重要です。

欧州連合

EUは包括的なAI規制の制定に向けた取り組みを主導しており、広範囲に及ぶEU AI法の正式制定が間近に迫っています。EU加盟国は 2024年2月2日に全会一致で合意し、同法は 2024年3月13日に議会で可決れました。 施行は2024年末から2025年初めにかけて段階的に開始される予定です。EU AI法 は、健康、安全、基本的権利に対する潜在的な危害に焦点を当て、AIアプリケーションをそのリスクレベルに基づいて分類します。同法は、リスクが高いと見なされるAIアプリケーションに対してより厳しい規制を課す一方、許容できないリスクをもたらすと見なされるものは全面的に禁止しています。また同法は、開発者と導入者の間で責任を適切に分担することを目指しています。 基盤モデルの開発者は、これらのモデルの安全性、安全性、倫理性、透明性を確保するために設計された一連の特定の義務の対象となりますただし、高リスクのユースケースや「システミックリスク」をもたらす基盤モデル(つまりフロンティアモデル)の一部として導入される場合を除きます。

英国

英国はこれまで包括的なAI規制を推進してきませんでしたが、2023年11月初旬に歴史あるブレッチリー・パークで開催された英国AI安全サミット (Databricksも参加)は、AIのリスク、機会、規制の可能性を取り上げた、これまでで最も注目され、広く参加された世界的なイベントと なりました。このサミットでは、フロンティアモデルがもたらすリスクに焦点が当てられる一方で、AIが社会にもたらすメリットやAIイノベーションを促進する必要性も強調されました。

英国AIサミットの一環として、中国を含む28カ国とEUは 、 AIがもたらすリスクと機会に対処するための国際協力を呼びかけるブレッチリー宣言合意しました。 このサミットに関連して、英米両国は各国AI安全研究所の設立を発表し、これらの機関が今後相互に緊密に協力することを約束しました(英国AI安全研究所には1億ポンドの初期資金が投入されましたが、米国はこれまで自国のAI安全研究所に1,000万ドルを割り当てています)。次回は2024年5月に韓国が主催する「バーチャルミニサミット」、次いで2024年11月にフランスが主催する対面でのサミットを予定しています。

その他

英国がAI安全サミットを開催し、バイデン政権がAIに関する大統領令を発表した同じ週に、G7首脳はAIに関する国際指導原則とAI開発者のための自主行動規範を発表しました。 一方、世界各国でもAIに関する規制が加速度的に議論され、提案されています。

自発的な事前コミットを求める圧力

米国ホワイトハウス、G7首脳、英国AI安全サミットの多数の出席者を含む多くの関係者は、保留中のAI規制や新たな業界標準への自主的な準拠を求めています。 AIを利用する企業は、今後導入される規制の一般的な要件を満たすために、今すぐ対策を講じる必要性に迫られるでしょう。

例えば AI Pact EUのAI法が施行される前に、締約国に自発的なコミットメントを求めるプログラムです。 同様に、ホワイトハウスは企業に対し、安全で確実なAIの実践を自主的に約束するよう促しており、 そうした取り組みの最新ラウンドヘルスケア企業に適用されています。 ヒロシマ・プロセスの下でOECDが作成した高度AIシステムの行動規範 (英国のAI安全サミットの週にG7首脳が発表)は任意ですが、強力な生成AIモデルの開発者には強く推奨されています。

このような自主的なコミットメントへのプレッシャーが高まっているということは、多くの企業にとって、さまざまなコンプライアンス義務がかなり近いうちに発生することを意味します。 さらに、多くの企業は自主的なコンプライアンスを潜在的な競争上の優位性と考えています。

これらの取り組みに共通するものとは?

新たなAI規制にはさまざまで複雑な要件がありますが、繰り返されるテーマがあります。 義務は一般的に5つの主要分野で発生します:

  1. AI開発・導入サイクルのすべての段階で必要とされる、 データおよびモデルのセキュリティとプライバシーの保護
  2. リリース前のリスクアセスメント、プランニング、軽減、データのトレーニングとガードレールの導入に重点を置き、偏り、不正確さ、その他の潜在的な害に対処
  3. AIモデルやシステムの性質(能力、制限、トレーニングデータの説明、リスク、講じた緩和措置など)に関して、開発時に講じた手順を網羅したリリース時に必要な文書 
  4. 不正確またはその他の有害な生成出力の防止、保護対象グループに対する差別の回避、ユーザーがAIを扱っていることを認識できるようにすることに重点を置いた、 リリース後のモニタリングと継続的なリスク軽減
  5. 大規模モデルの学習と実行に使用されるエネルギーによる環境への影響を最小化

Databricksの顧客にとって先進的な規制が意味するもの

このような政府の活動によって生み出された見出しの多くは、リスクの高いAIのユースケースやフロンティアAIのリスクに焦点を当てたものですが、他のAIの開発や展開にも短期的な影響があると思われます。特に、EUのAI法に対する自発的な事前コミットメントを求める圧力や、様々な分野での短い時間軸に起因するバイデン大統領令から生じています。 他のほとんどのAI規制およびコンプライアンスフレームワーク案と同様に、データガバナンス、データセキュリティ、データ品質が最も重要です。

Databricksは、現在進行中の規制動向を注意深く見守っています。私たちは思慮深いAI規制を支持し、Databricksは顧客がAI規制の要件と責任あるAI利用の目標を達成できるよう支援することを約束します。私たちは AIの進歩は、AIの開発および使用に関わるすべての人が、AI規制の目標に沿った責任ある倫理的な慣行に従うようにすることで、インテリジェントなアプリケーションに対する信頼を構築することにかかって いると考えています。これらの目標を達成するには、すべての組織がデータとAIモデルを完全に所有・管理し、AIの開発と展開のすべての段階で包括的なモニタリング、プライバシー管理、ガバナンスを利用できるようにする必要があります。この使命を達成するために、Databricks データインテリジェンスプラットフォームでは、AIライフサイクル全体のデータ、モデルのトレーニング、管理、モニタリング、およびガバナンスを一元化できます。この統一されたアプローチにより、企業はデータ品質の提供、より安全なアプリケーションの提供、規制基準へのコンプライアンスの維持など、責任あるAIの目標を達成することができます。

シリーズの2回目となる今後の投稿では、Databricks データインテリジェンスプラットフォームに搭載されているツールを活用することで、お客様がAI規制を遵守し、AIの責任ある使用に関する目標を達成する方法を深掘りします。主な内容は以下の通りです。 高度な統合ガバナンスおよびセキュリティソリューションであるUnity Catalog、AI規制の安全性、セキュリティ、およびガバナンスの懸念に対処する上で非常に役立ちます

また、AIに関連するリスクを軽減する方法にご興味のある方は、こちらからDatabricks AIセキュリティフレームワークにご登録ください。

 

Databricks は人工知能安全研究所コンソーシアムにおいて NIST と協力し、科学的根拠に基づき実証的に裏付けされた AI の測定と政策に関するガイドラインと標準を開発し、世界中で AI の安全性を確保するための基盤を構築しています。 これにより、米国は、フロンティアモデルから新しいアプリケーションやアプローチまで、次世代のAIモデルやシステムの能力に、適切なリスク管理戦略をもって対応できるようになります。 NISTは、本コンソーシアムの下で市販製品を評価することはなく、使用されるいかなる製品またはサービスも推奨しません。 本コンソーシアムに関する追加情報は以下をご覧ください:連邦官報公告 - USAISIコンソーシアム.

Databricks 無料トライアル

関連記事

産業界と政府機関を通じて、責任あるAI開発へのコミットメントをさらに強化

February 8, 2024 Scott Starbird による投稿 in Databricks ブログ
Databricksでは、革新的なデータとAI製品を構築してきた長年の歴史を通じて、責任ある開発の原則を堅持してきました。 私たちは青空のように広がる可能性を秘めた研究(blue-sky research)とオープンソースの革新に取り組んでいます。これは私たちの文化の一部であり、当社の学術的なルーツに由来するものです。 この遺産を基に、Databricksは最近、イノベーションを促進し、安全で信頼できるAIの使用を提唱するいくつかの業界および政府の取り組みに参加しました。 当社のデータインテリジェンスプラットフォームからの洞察を研究に提供したり、他の業界関係者と協力してAIに関する政策立案者を教育したりするなど、DatabricksはAIの進歩を加速し、安全性を向上させ、セキュリティを強化し、信頼を活用するためのイニシアチブの一翼を担っていることを誇りに思っています。 以下は、私たちが参加または協力しているグループの一部です: AIアライアンス AIアライアンスは、オープンイノベーションに根ざした安全で責任あるA
Databricks ブログ一覧へ