AI Risk Management

AIリスクを管理するための新たな枠組み

AIリスクとは

AIリスク管理は、組織の要件を満たすためにリスクを測定し、軽減するための、企業のベストプラクティスとなりつつあります。AIリスク管理が何であるかの理解を助けるため、まずAIリスクは次のように確率的な期待値として定義できます。

AIリスク=(AIモデルのエラーまたは悪用の可能性)×(その潜在的影響)
この定義は、取るべき対策について示唆をもたらしてくれます。AIのエラーや脆弱性は数多くあり、頻繁に発生し、モデルのタスクやモダリティによって異なります。例えば、悪意のあるコード実行、データポイズニング、プロンプトインジェクション、モデル抽出、幻覚(Hallucination)、データドリフト、予期せぬ動作、偏った予測、有害な出力などがあります。

モデルのエラーの影響は、ユースケースに大きく依存します。財務的、法的、あるいは風評的な影響もあります。さらに重要なことは、個人情報の流出、医療保険の拒否、ローン承認の拒否など、ユーザーにとって壊滅的な結果をもたらす可能性があるということです。

従来的なソフトウェアリスクとは異なるAIのリスク

 AIモデルは、基礎となる「コード」の単なる関数ではなく、根本的にはデータの関数でもあります。従来のソフトウェアにおけるプログラミングにおいては、入力を所定の出力に変換するために、手続き的ソフトウェア論理に根ざした厳密な抽象化が定義されています。しかし、AIにおいては、ユーザーがロジックを明示的に定義するのではなく、データのコーパスからロジックを「学習」できることこそが利点となります。ユーザーは学習されたロジックを直接観察することができないため、テストの負担が大きくなります。いくつかのデータポイントとエッジケースをテストするだけでは、もはや「正しさ」を担保するには不十分です。ユーザーは、評価データセットでモデルの性能を厳密にテストし、モデルが無限の潜在的なデータ分布のセットでも正しい予測を行えることを保証しなければならなくなりました。

 AIモデルの性能を評価するための評価基準は、ソフトウェアのテストに使われるものとは異なります。これは、AIモデルがノイズの多いデータに対する近似学習であるためで、ほとんどの実用的な設定では、モデルがデータ分布全体に対して100%正しいということはあり得ません。例えば、ソフトウェアは機能性や使いやすさをテストすることが多い一方で、分類モデルの性能を評価するための一般的な指標は精度です。さらに、データセット上でトップレベルの評価指標をテストするだけでもまだ不十分です。AIモデルが失敗する可能性のある側面は他にもたくさんあるためです。

 AIモデルには、表形式データの二値分類から、生成AIによる言語ベースの応答まで、幅広いモダリティ/タスクがあります。各モダリティやタスクには、それぞれ独自の失敗の特徴があり、上記のような側面でのテストの課題があります。さらに、AIは意思決定の自動化にも関わっているため、システム統合における他の側面に関連するテストも必要です。これには、バイアスや公平性に対するテストや、モデルやデータに符号化されている可能性のある機密情報の悪用に対するテストが含まれます。

 AIは、リスクを軽減するための新しいパラダイムの必要性を浮き彫りにしています

AIリスク管理とは

AIリスク管理とは、一連のツールや手続の導入によって、AIの特徴的なリスクから組織やエンドユーザーを守るための策を事前に講じることを指します。ここには、リスクを測定し、リスクを最小化するためのソリューションを導入することが含まれます。上記のAIリスクの定義に立ち戻って考えると、AIモデルの失敗の可能性を減らすか、影響の重大性を低減することでAIリスクを最小化することができます。ソフトウェアエンジニアリングにおけるベストプラクティスとAIリスク管理は似て非なるものです。
 アメリカ商務省下の米国立標準技術研究所(NIST)のAIリスク管理フレームワークはAIリスク管理について次のように述べています。

 AIのリスク管理は、責任あるAIシステムの開発と利用の重要な構成要素である。責任あるAIの実践は、AIシステムの設計、開発、使用に関する決定を、意図された目的と価値観に合致させるのに役立つ。責任あるAIの中核概念は、人間中心主義、社会的責任、持続可能性を強調する。AIのリスク管理は、AIの設計、開発、配備を行う組織とその内部チームに、文脈と潜在的または予期せぬ否定的、肯定的影響についてより批判的に考えるよう促すことで、責任ある使用と実践を推進することができる。AIシステムのリスクを理解し管理することは、信頼性を高め、ひいては社会からの信頼を培うことにつながる。

企業が取り組むべき3つのAIリスクの管理

01

セキュリティ面のリスク

セキュリティ面のリスクとは、悪意ある入力や、エンドユーザーによる意図せぬ操作によって生じるAIシステムの脆弱性を指します。これには、モデル、データ、または基礎となるソフトウェアに対する攻撃が含まれます。独自開発、商用、オープンソースのいずれのモデルも、サプライチェーンリスク、データポイズニング、プロンプトインジェクション、個人情報の漏洩、モデルの盗難など、様々な脅威の影響を受ける可能性があります。
02

倫理面のリスク

倫理面のリスクは、規範、法律、規制、またはその他のガバナンス基準に違反するモデル動作に起因しています。学習データに原因がある場合もあれば、長期間にわたるデータ生成の結果である場合もあります。例としては、偏った予測、有害な出力、排他性、偏見に基づく回答などがあります。
03

品質面のリスク

品質面のリスクは、モデル予測における乖離によるものです。これは、データドリフト、幻覚(Hallucination)、データの破損、滅多に発生しないケースの入力、データパイプラインの破損などの結果です。モデルを完全に破壊することはなく、下流の評価指標に微妙な影響を与えるため、このような水面下でのモデルの不具合は特に検出が困難です。

AIリスク管理は産業界の標準に

AIリスクは、既存および今後予定されているAI基準や規制の対象となります。AIリスク管理の枠組みは、国内外において、自主的な枠組み、ガイドライン、法律で構成されています。今後展開が見込まれる法規制やその他の規制を先取りするために、多くの企業が今、AIリスク管理を導入しています。

直近の注目すべき例としては、以下が挙げられます。
米国議会はAIのリスク管理におけるガイダンスの必要性を認識し、NIST(米国国立標準技術研究所)にそのための枠組みの作成を義務付けました。2023年1月、NIST AIリスク管理フレームワークの最初のバージョンがリリースされました。
米国のバイデン-ハリス政権は、大手AI企業15社から、特定のAIリスク管理措置を遵守する自発的な合意を取り付けました。この合意は、「ビッグテック」によって開発されたAIサービスに対する社会的信頼を高めるとともに、各企業がベンダー提供のものを含むAIシステムに何を求めるべきかの基準を提供します。
EUのAI規則案は、リスクベースのアプローチでAIを規制することを目的とした、この種のものとしては初めての立法構想です。特にリスク管理、データガバナンス、技術の文書化、記録保持において、ハイリスクAIモデルの開発・提供者に対して非常に規定的な内容となっています。
日本国内においては、政府のAI戦略会議においてG7広島AIプロセスに対する提言や新たなガイドラインについて議論しています。事業者向け指針の検討においては、AI開発者における外部監査の設置も検討されるなど、第三者的なリスク検証の必要性が示されています。

AIリスク管理を自動化する

手作業によるAIモデルの評価と対応策の実行には膨大な時間とコストがかかります。AIのリスク管理を自動化するツールを使用することで、受動的なフレームワークを能動的なプラクティスに変えることができます。AIリスク管理の自動化は、リスク測定と軽減に役立ち、企業におけるAIの大規模な利活用を後押しします。Robust Intelligenceのソリューションは以下のようなメリットをもたらします。

リアルタイムの検証

すべてのモデルが悪意のある入力を受け取り、望ましくない出力を生成する可能性があることを念頭にリスク管理を行う必要があります。生成AIモデルは、出力がすぐにユーザーに届くため、特に脆弱です。入力と出力のリアルタイム検証は、運用中のモデルを保護するために必要不可欠です。

包括的なテスト

AIモデルは非決定論的な性質を持っているため、不具合を予測することが困難です。自動化された包括的なテストは、モデルとデータの手動によるその場限りのテストよりもはるかに優れています。何百ものテストとアルゴリズムによって生成されたストレステストを実行することで、モデルが厳密に検証されていることを確認できます。包括的なテストケースは、個人やチームの主観に依存しない、全社的に統一されたリスク基準を実施するのに役立ちます。

リソースの効率化

手作業によるモデルの検証には時間とコストがかかります。各モデルをテストし、その結果をAIリスク管理の枠組みに対応づけるのに80時間以上かかることもあります。このプロセスは、モデルの新バージョンがリリースされるたびに繰り返す必要があり、商用モデルやオープンソースモデルでは頻繁に発生します。自動化されたプロセスによって、一般的にガバナンスやコンプライアンスの専門家ではないデータサイエンティストの検証の負担を和らげることができます。

Robust Intelligenceができること

Robust Intelligenceは、End-to-EndのAIリスク管理プラットフォームを提供し、AIリスクから組織を保護します。私たちのプラットフォームは、継続的な検証プロセスを通じて、AIのライフサイクル全体においてモデルとデータに対して何百もの自動テストを実施し、セキュリティ面、倫理面、品質面のリスクを未然に軽減します。Robust Intelligenceはサンフランシスコに本社を置き、アメリカにおいてはJPモルガン・チェース、エクスペディア、米国防総省など、日本国内においてはNEC、楽天グループ、LINEヤフー、リクルートなどの業界リーダーから信頼を得ています。