メインコンテンツへジャンプ

未来を守る:生成型AIの時代におけるAIエージェントシステムを保護するAIゲートウェイの役割

ヤレド・グデタ
オマール・カワジャ
デビッド・ウェルズ
Share this post

Summary

生成型AIは強力な現実となり、顧客体験を向上させ、決定を自動化することで業界を変革しています。組織がAIエージェントシステムをコア業務に統合するにつれて、新たに出現する脅威からこれらのシステムを保護するために、堅牢なセキュリティ対策が不可欠となります。このブログでは、AIゲートウェイがどのようにAIエージェントシステムを保護し、今日の複雑なデジタル環境での安全なデプロイメントと運用を確保するかについて探ります。

未来:ルールエンジンから指示に従うAIエージェントシステムへ

銀行や保険などのセクターでは、ルールエンジンは長い間、意思決定において重要な役割を果たしてきました。銀行口座の開設資格を決定したり、保険請求を承認したりするかどうか、これらのエンジンは事前に定義されたルールを適用してデータを処理し、自動的な決定を下します。これらのシステムが失敗すると、人間の主題専門家(SMEs)が例外処理を行います。

 

しかし、指示に従うGenAIモデルの出現は、ゲームを変えることになるでしょう。静的なルールエンジンに頼るのではなく、これらのモデルは特定のルールデータセットで訓練され、複雑な決定を動的に行うことができます。例えば、指示に従うモデルは、リアルタイムで顧客の金融履歴を評価し、ローン申請を承認または拒否することができます。ハードコーディングされたルールは必要ありません。データに基づいて決定を下す訓練されたモデルだけです。

 

この変化は、より大きな柔軟性と効率性をもたらしますが、重要な問いを提起します: 伝統的なルールエンジンを置き換えるこれらのAIエージェントシステムをどのように保護するのでしょうか?

 

セキュリティチャレンジ:APIゲートウェイとその先

伝統的に、ビジネスプロセス(ルールエンジンなど)はAPIにカプセル化され、その後、フロントエンドアプリケーションによって消費されました。これらのAPIを保護するために、組織はAPIゲートウェイを実装し、OSIモデルの異なるレイヤーにわたるセキュリティポリシーを強制しました:

 

  • ネットワーク層(レイヤー3): 特定のIPアドレスをブロックまたは許可してアクセスを制御し、サービス拒否(DoS)攻撃や分散サービス拒否(DDoS)攻撃を防ぎます。
  • トランスポート層(レイヤー4):相互TLS証明書の交換を通じて安全な通信を確保します。
  • アプリケーション層(レイヤー7): 認証(OAuth)、メッセージの検証(JSON脅威保護)、SQLインジェクション攻撃などの脅威からの保護を実装します。

これらのAPIポリシーは、承認されたリクエストのみが基礎となるビジネスプロセスと対話できるように保証し、APIを重要な操作を管理する安全な方法としています。

 

しかし、AIエージェントシステムの台頭に伴い、これらのサービングエンドポイントのセキュリティを確保することがより複雑になります。複数のAIモデルが複雑なタスクを処理するために協力する場所です。伝統的なAPIポリシーはインフラストラクチャと通信レイヤーを保護することに焦点を当てていますが、これらのAIエージェントシステムが受け取る指示を検証するための装備がありません。AIエージェントシステムでは、悪意のあるアクターがプロンプト入力を悪用し、適切に保護されていない場合にはプロンプト結果を悪用することができます。これにより、顧客とのやり取りが悪化し、望ましくない行動が生じ、IPが失われる可能性があります。

 

顧客のローンの適格性を判断するという任務を持つ銀行のAIエージェントシステムがあると想像してみてください。もし悪意のあるアクターがサービングエンドポイントを制御することができれば、システムを操作して不正なローンを承認したり、正当な申請を拒否したりすることができます。スキーマ検証やJSON保護のような標準的なAPIセキュリティ対策は、この文脈では不十分です。

 

解決策:指示検証のためのAIゲートウェイ

組織は、AIエージェントシステムを保護するために、従来のAPIポリシーを超える必要があります。その鍵は、APIレイヤーを保護し、AIゲートウェイを構築し、AIエージェントシステムに送信される指示を評価することにあります。

 

従来のAPIでは、メッセージは通常スキーマチェックを通じて検証されますが、AIエージェントシステムは自然言語や他のテキスト形式で書かれた指示を処理します。これらの指示は、有効でありかつ悪意のないものであることを確認するために、より深い検証が必要です。

 

ここで大規模言語モデル(LLMs)が登場します。オープンソースのLLMモデル、例えばDatabricks DBRXMeta Llamaは、AIエージェントシステムが受け取る指示を分析する「審判」の役割を果たします。これらのモデルをサイバー脅威や悪意のあるパターンに対してファインチューニングすることで、組織はAIエージェントシステムに送られる指示の意図と正当性を検証するAIゲートウェイを作成することができます。

 

Databricks Mosaic AIがAIエージェントシステムをどのように保護するか

Databricksは、Mosaic AI Gatewayを通じてAIエージェントシステムを保護するための先進的なプラットフォームを提供します。サイバー脅威や安全リスクに対してLLMを微調整し、有害な指示を認識しフラグを立てるように訓練することで、AIゲートウェイは従来のAPIポリシーを超えた新たなセキュリティ層を提供することができます。

トレーニングのプロセス

 

  1. 指示の前処理:指示がAIエージェントシステムに渡される前に、Mosaic AI Gatewayはそれを事前定義されたセキュリティルールと照らし合わせてチェックします。
  2. LLM分析:指示は、微調整されたLLMによって分析され、その意図を評価し、それがAIエージェントシステムの目標と一致するかどうかを判断します。
  3. 悪意のある指示のブロック: 指示が有害または疑わしいと判断された場合、微調整されたLLMはそれがAIエージェントシステムに到達するのを防ぎ、AIが悪意のある行動を実行しないようにします。

このアプローチは、AIエージェントシステムに追加の防御層を提供し、悪意のあるアクターが悪用するのを大幅に困難にします。AIを用いてAIを保護することで、組織は潜在的な脅威に一歩先んじることができ、AI駆動のビジネスプロセスが信頼性と安全性を保つことができます。

 

結論:AI駆動のビジネスプロセスの未来を確保する

生成AIが進化し続ける中で、企業はますますAIエージェントシステムに依存して複雑な意思決定プロセスを処理するようになるでしょう。しかし、このシフトに伴い、従来のAPIポリシーを超えてAIエージェントシステムを駆動する指示そのものを保護する新しいセキュリティアプローチが必要となります。

 

実装することによりAIゲートウェイは、Databricksが提供するような大規模な言語モデルによって駆動され、組織はAIエージェントシステムがビジネス運営でより洗練された役割を果たすにつれて、安全を保つことができます。

 

AIの未来は明るいが、それは同時に安全でなければならない。Mosaic AIのようなツールを使えば、ビジネスはAIエージェントシステムの力を自信を持って活用しつつ、新たに出現する脅威から自身を守ることができます。

 

Databricks 無料トライアル

関連記事

Mosaic AI Agent Framework および Agent Evaluation の発表

Databricks は 、Data + AI Summit 2024 で、 生成 AI クックブック とともに、Mosaic AI Agent Framework および Agent Evaluation の パブリック プレビュー を 発表...

AIエージェントシステム:信頼性の高い企業向けAIを実現するモジュール型エンジニアリング

モノリシックからモジュラーへ 新技術の概念実証(POC)は、多くの場合、特性を明確にするのが難しい大規模でモノリシックな単位から始まります。POCはその性質上、拡張性、保守性、品質といった課題を考慮せずに「技術が動作する」ことを示すために設計されます。しかし、技術が成熟し広く展開されると、これらの課題に対応するために、製品開発はより小さく管理しやすい単位に分解されていきます。これがシステム思考の基本的な概念であり、AIの導入が単一のモデルからAIエージェントシステムへと進化している理由なのです。 モジュール設計の概念が適用されてきた分野: modular design 自動車 : 座席、タイヤ、ライト、エンジンなどを異なるベンダーから調達可能 コンピュータチップ : メモリ、I/Oインターフェイス、FLASHメモリなどの事前構築されたモジュールを統合 建築物 : 窓、ドア、床、家電など ソフトウェア : オブジェクト指向プログラミングやAPIにより、小規模で管理可能なコンポーネントに分割 ほぼすべてのエンジニアリ

一般主義者から専門家へ:AIシステムの進化は複合AIへ!

October 1, 2024 ヤレド・グデタ による投稿 in
複合AIシステムに対する バズ は現実であり、それには十分な理由があります。複合AIシステムは、複数のAIモデル、ツール、システムの最良の部分を組み合わせて、単一のAIでは効率的に対処するのが難しい複雑な問題を解決します。 振り返る:モノリシックからマイクロサービスへ 複合AIシステムの魔法に飛び込む前に、少し戻ってアプリケーション開発がどのように進化してきたかを探ってみましょう。モノリシックなアプリケーションの日々を覚えていますか?これらは巨大な、一体型のソフトウェアシステムで、フロントエンドのインタラクション、バックエンドの処理、データベース管理を一つのコードベース内で処理していました。彼らは強力でしたが、欠点もありました。 モノリシックアーキテクチャの課題: 遅い更新 : アプリケーションの一部を少し修正するだけで、システム全体を再デプロイする必要がありました。 スケーリングの問題 : システムの一部が重負荷になると、システム全体をスケールアップしなければなりませんでした。 単一の障害点 : 一つのコンポー
生成 AI一覧へ