Webエンジニアの最新トレンド ②AI TRiSMとは?提唱された背景と概念をチェック
AI時代の最新トレンドのひとつとして注目を集めている「AI TRiSM」。AIによって生じるリスクを抑え、AIの有効性を最大化するためのガイドラインとして、アメリカのGartner社が2023年に提唱しました。
しかしAI TRiSMについて聞いたことはあるものの、詳しい意味や実践方法がわからないという人も多いのではないでしょうか。
そこで今回の記事では、AI TRiSMを構成する要素やAI活用上のリスク、AI TRiSMの実践方法をわかりやすく解説します。WebプロデュースにおけるAI運用を最適化する参考にしてください。
AI TRiSMとは
AI TRiSMは「AI Trust, Risk and Security Management」の頭文字をとった略称で、読み方は、「エーアイトリズム」。「Trust=信頼性」、「Risk=リスク」、「Security Management=セキュリティ・マネジメント」の頭文字をとった造語です。
AIのさまざまなリスクに対応し、AIの信頼性を高めるために行うべき取り組みのフレームワークです。
企業がAIの運用を続ける中で、モデルの開発時には想定できなかった問題やリスクが多数あることが分かってきました。そこでAIのリスクを解消し、本体の目的である生産性向上の効果を最大化すべく、AIの信頼性と公平性、有効性を担保し、プライバシーやデータ保護をサポートするための枠組みとして提示されたのがAI TRiSMです。
AIのリスク対策にはこれまで明確・有効なガイドラインが存在しなかったため、一般のサイバーセキュリティ対策と比べると、AI運用のリスク管理は浸透していませんでした。AI TRiSMはこうしたAIの開発・活用で懸念されているセキュリティ対策やプライバシー、倫理的な懸念要素を解消するフレームワークとして期待されています。
AI活用の現状
近年の世界的なDX推進の潮流は、企業におけるAI活用を促進しました。さらに2020年のCOVID-19パンデミックが世界経済に及ぼした影響によって、企業はより迅速・柔軟なビジネス展開が必要となり、デジタル技術の導入がいっそう加速しています。
これまでAIは企業活動において、業務の効率化や品質の均一化、業務標準化、顧客体験のパーソナライズ、さらに新しいサービスの創出を実現してきました。
その一方でAIの活用には、人間の制御を超えるインシデントやトラブルの危険もはらんでいます。AI自体には倫理感覚や判断能力がないため、一貫したAIリスク・マネジメントを行っていない組織は、以下に示す弊害を被る恐れがあるのです。
- セキュリティ侵害
- 財務的・風評的損失
- 法的責任
- 社会的損害
Gartner社の調査によると、AIのプライバシー侵害やセキュリティインシデントを経験したことのある組織の割合は41%に上り、実際にAIが原因で以下のような事件も発生しています。
- 香港の企業財務担当者が生成された偽同僚に騙され約38億円を送金させられる
- サムスンの社内ソースコードが生成AIを通じて外部へ流出
- 米国の作家が著作物を「学習」されたとしてOpenAIを提訴
個人情報流出や、チャットボットの差別的発言なども多発しています。AIを安全かつ効果的に活用するためには、AI特有のリスクに対する理解と対策が必須です。
参照:ガートナージャパン株式会社「Gartner、2023年の戦略的テクノロジのトップ・トレンドを発表」
AI TRiSMの4つの構成要素
AIの信頼性と安全性を担保し、可能性を最大化するためのAI TRiSMの要素は以下の4つです。
- 説明可能性
- ModelOps(モデル運用)
- AIセキュリティ
- プライバシー
説明可能性
説明可能性とは、AIの意思決定と予測がどのようなプロセスで行われているのかを、人間に分かるよう説明することです。AI TRiSMにおけるAIの信頼性を高める要素にあたります。
例えば「犬種を見分けるAIモデルが、何を根拠に犬種を判断したのか」を探って説明することです。一般的には、以下の2つの手法が用いられます。
- 特定の入力データサンプルと予測結果をもとに、判断根拠を解釈する
- ディープラーニングのような複雑な学習モデルを、分かりやすいルールモデルに置き換えて理解する
ディープラーニングを用いたAIの動作の仕組みを理解できる人は少なく、ともすると中で何が起きているのか分からない「ブラックボックス」と扱われてきました。
AI TRiSMでは、AIの回答を説明できれば出力結果に対する信憑性が生まれ、AIの信頼性を担保できるとしています。
ModelOps(モデル運用)
ModelOpsとは、開発されたAIモデルの開発から運用、更新までをサイクル化・効率化した手法・概念です。
AIを取り巻く環境は変化しているため、導入時にリスク対策を講じるだけでなく、運用中も継続的な対策の見直しが必要です。
従来は分離されていたAIモデルの「開発⇒検証⇒テスト⇒業務実装⇒本稼働⇒評価⇒改善」の各工程を、一元化・サイクル化することで、AIの有効性を維持できます。ModelOpsは、AIの運用開始後も監視・更新を怠らない仕組みづくりが大切であることを示しています。
AIセキュリティ
AIセキュリティとは、AIシステムとその扱うデータを外部からの攻撃から守るための対策です。通常のアプリケーションとは異なり、AIモデルには以下のような特有の攻撃を受けるリスクがあります。
攻撃の種類 |
内容 |
プロンプトインジェクション |
プロンプトに悪意ある要素を埋め込み、LLMから情報を漏洩させたり、想定外の使い方をさせたりする |
プロンプトリーキング |
運営側がAIに与えている情報を漏洩させる |
ゴールハイジャッキング |
命令を上書きする |
ジェイルブレイク |
倫理上制限されているLLMの設定を無視させる |
AI TRiSMでは、悪意ある攻撃に対する耐性をAIモデルに持たせ、データ異常を検知したらすぐ対処できるよう備える大切さを示しています。
プライバシー
AIには個人のプライバシーを侵害するリスクがあり、AIの持つ大量のデータから、個人情報などが流出しないための対策が必要です。
AIは必要なデータを収集し、そのデータにもとづいて解析を行い、解析結果を活用して最終的なアウトプットを行います。収集された個人のプライバシーにかかわるデータを、AIが判断してフィルタリングするわけではないため、個人の承諾なく以下の情報が出力される恐れがあるのです。
- 商品の購入履歴⇒個人の趣向や関心が推定される
- 行動履歴⇒個人の行動パターンが知られる
- 収集された(偏った)個人情報⇒差別的な判断や予測を出力される
生成AIでは、プロンプト次第で思いがけずトレーニングデータが出力されてしまうこともあります。またデータから推定されたプロファイリングには正確性の保証がないため、誤った情報を流される恐れがあり、これもプライバシーの侵害となり得ます。
AI TRiSMでは、AI特有のプライバシー侵害リスクを理解し、対策するよう呼びかけているのです。
代表的なAI TRiSM企業
- FAIRLY:
- FAIRLYは、AIモデルのリスク管理、ガバナンス、コンプライアンスに特化したプラットフォームを提供しています。自社のツールを通じて、AIモデルの文書化、リスクとバイアスのチェック、透明性の確保などを支援し、企業が安全でコンプライアンスに適合したAIを市場に提供できるようサポートしています (Fairly AI)。
- Navikenz:
- Navikenzは、AI TRiSMの重要な要素として透明性、継続的なモニタリング、ステークホルダーとのエンゲージメントを強調しています。同社は、AIシステムが常に最新のリスクに対応できるよう、定期的なレビューと改善を行うことを推進しています (Navikenz)。
これらの企業は、AI技術の広範な導入に伴うリスクや課題に対応するためのソリューションを提供しており、金融、ヘルスケア、製造業などのさまざまな業界で活用されています。今後、AIの利用が拡大するにつれて、AI TRiSMを提供する企業の需要も増加することが予想されています。
AI活用時に留意すべきリスク
WebプロデュースにおいてAIの活用時に留意すべきリスクに、以下があります。
- 入力情報がオープンになる恐れがある
- 著作権やAI利用規約の侵害になる場合もある
- 誤った情報が出力される恐れがある
AI TRiSMを実践すれば、こうしたリスクの多くを軽減できるでしょう。
入力情報がオープンになる恐れがある
AIに入力した情報が、他者が利用するAIの学習に使われる可能性があります。
特に誰でも使えるオープンなAIを利用する場合、一度でも情報が取り込まれてしまうと他のAIの学習に取り入れられてしまい、二度と回収・削除できなくなる可能性があります。
対策として、不正アクセスを検知するシステムの導入など、社内の不正行為や、外部からの攻撃への対策を講じておくことが重要です。機密性が高いデータや重要なビジネスデータなどを入力することも避けたいものです。
著作権やAI利用規約の侵害になる場合もある
AIの生成物が著作権やAI利用規約を侵害するケースもあります。
基本的には、生成AIを利用して文章や画像を作った場合、人間がAIを利用せずに文章を作ったり、絵を描いたりした場合と同様に判断されます。既存の著作物との類似が認められない場合は、既存の著作物の著作権侵害とはなりません。
ただし、生成AIが作り上げた文章や画像が、既存の著作物との類似性・依拠性が高いと認められた場合は「当該著作権者から許諾を得た場合、かつ権利制限規定に該当した場合」を除いて、著作権侵害となります。
また、多くのAI提供会社の利用規約には「著作物や商標・著名人の写真の加工や編集を禁止する」と記載されており、知らずにAIツールで編集・加工を行ってしまうと、利用規約違反と著作権侵害の両方に該当してしまいます。その場合には著作権侵害の罰則と、AI提供会社からの損害賠償請求の両方を負う可能性が高いため、注意が必要です。
誤った情報が出力される恐れがある
生成AIは「ハルシネンーション(Hallucination)=幻覚」によって、誤った情報を出力する可能性もあります。
ハルシネーションとは、存在しない情報やデータを生成し、一見本当のような偽の情報が出力されることです。AIは多量の学習データにもとづいて新しいデータを分類・予測します。しかし過学習(Overfitting)の状態に陥ると、未知のデータに対する精度が発揮されなくなり、学習データに存在しなかった情報を出力してしまうことがあります。
そのため運用者側でも、AIの出力内容に誤りがないかどうかの確認が必須です。
WebプロデュースにおけるAI TRiSMの3つの実践方法
先のAI運用時のリスクを考慮し、WebプロデュースにおいてAI TRiSMを実践する方法を解説します。
- 生成AIの適切な活用範囲を設定する
- データマネジメントを徹底する
- スタッフ教育を徹底しマニュアル化する
生成AIの適切な活用範囲を設定する
生成AI活用のもたらす効果を最大化し、リスクを最小限に抑えるためにも、活用の範囲を明確に設定しましょう。
AIは万能ではなく、倫理観や判断能力を持っていません。そのため運用者側で活用の方向性と範囲を定める必要があるのです。
活用範囲が定まっていれば、学習させる情報を適切に制限でき、不適切な情報生成を防ることにつながります。活用目的と範囲が明確に定まっていれば、自社に最適なAIツールを選定・導入する指針にもなり、入出力情報の制御も容易に行えます。
ただしAIを取り巻く最新動向を踏まえ、運用ルールは定期的に見直すことも必要です。
データマネジメントを徹底する
AIのリスクを最小化するためには、データマネジメントの徹底も必須です。
生成AIの成果物は入力データにもとづいて生成・出力されるため、AIの出力品質はデータマネジメントの質に左右されます。データ入力時に求められる条件は以下のとおりです。
- 情報に正確性があること
- 学習データにバイアスがないこと
- 機密性を保持できること
適切なデータマネジメントを実施することで、出力データの品質を確保し、不正確な情報生成や漏洩のリスクを抑えられます。
事業者内の不正行為や、外部からの攻撃への対策方法も明確にしておきましょう。
スタッフ教育を徹底しマニュアル化する
AIによるリスクを最小化するためには、スタッフ教育でAIリテラシーを高めるとともに、明確なルール作りとマニュアルの策定が必須です。
AIを安全に運用するには、研修やトレーニングを通じてスタッフにAIの基本知識と適切な使用方法、リスクを理解してもらう必要があります。法律面の理解を促すためには、コンプライアンス研修も欠かせません。
AI運用マニュアルには以下を明記し、関係者に周知させましょう。
- 自社のAI使用目的
- 使用範囲
- 倫理ガイドライン
- データの取り扱いルール
スタッフ一人ひとりの疑問を解消し、それぞれが責任を持ってAI運用に当たれるよう、組織で知識とスキルを共有することが必要となります。
AI TRiSMでAIを安全・適切に活用し業務の品質を高めよう
生成AI運用上のさまざまなリスクを軽減するためには、AI TRiSMの実践が有効です。
AI TRiSMによって、AIモデルのガバナンスと信頼性 、公平性、確実性そして堅牢性と有効性、データの保護を確保できます。AI TRiSMで適切にAI管理できれば、生産効率を高めながら、高品質の成果物を生み出すことが可能です。
生成AIの運用はまだ過渡期ですが、今後は産業界だけでなく、日常生活のいたるところにAIが溶け込んでくると予想されます。AI TRiSMでAIを安全に導入し、品質の高いWebアプリ開発につなげましょう。