「AI」リスク管理と標準化

2019年5月7日 by Tomoyuki HAYASHIDA
cloud.jpg

企業において、AI(人工知能)の導入は、戦略的、経営的、営業的なプラス面ばかりでなく、ビッグデータ解析にも通じる情報管理としての透明性、検証可能性、説明可能性などを含むリスクが存在することが知られています。

私の AI セミナーでも、この点は、「企業危機管理対象としての AI」として章立てしてご説明していますが、標準化機関である BSI (British Standards Institution, 英国規格協会)でも、AI のリスク管理として、国際標準の ISO 31000(リスク管理-ガイドライン)の追加項目が現在提案フェーズになっているようです。

そもそも AI を導入しようとする企業内では、その反対意見として AI への信頼の欠如が根本にあり、データやアルゴリズムの偏りやセキュリティ的脅威、個人情報漏洩などの脅威、透明性、検証性などを問題にすることが背景となっていて、その部分をリスク管理の範囲としているようです。

そこで標準化されようとしている内容としては、AI システムにおいて、構造化されたリスク管理プロセスとして、

a) AI システムに対するリスク識別、分類、処理を可能にすることで、脅威やリスクを低減する手法や方法を評価
b) 文書化されたリスク管理プロセスを使用することで、透明性、検証可能性、説明可能性、制御可能性により信頼を確立
c) 識別された利害関係者にリスクの取扱いを透明化し、AIシステムを堅牢、レジリエンス、信頼性、セキュリティなどを確立

をそれぞれ実施することで AI システムの(導入)リスク管理を標準化しようとしています。つまりは、AI を如何に透明性のあるものとして関係者全員が理解することが必要なのだということです。

実際に、ほとんどの AI 事業者は、このリスク部分に触れることはあっても、ユーザと一緒に考えましょうというスタンスは見られず、ユーザにとっても、戦略性やリスクについての議論があっての導入可否を判断するフェーズがないように思えます。

AIを導入した企業においても、AIシステムやAIプロジェクトを内部監査する要求は、現実的にも存在しています。

企業において、AI は、全リスク項目において影響するため、導入するしないというレベルに寄らず、今から AI が導入される未来を見据えたリスク管理を行う必要があると考えています。

 

AIリスク管理にご興味があれば、是非ご相談ください。

 

 

COPYRIGHT © 2012-2017, Principle BCP Institute, ALL RIGHTS RESERVED