イメージ:Adobe Stock

前回は、AIのリスクについて、あるいは、AIのリスクへのセキュリティチームの関わり方について考察いたしました。AIというもの自体、まだまだ技術面も実務での受け入れ方も曖昧なところも多く、今後とも研究されていくテーマであります。ましてやリスクの話となると、守る側以上に攻める側が技術に長けている面も多々あるようですので、今後も実務の難題であり続けることでしょう。また、本メディアの編集者の方によりますと、AIはBCP/リスクコミュニティの中でもご関心が高いテーマの1つ、とのことでもあり、今回はAIリスクに対するセキュリティのアプローチについて、守るための秘密箱、あるいはそのからくりの現在地を確認してみようと思います。

からくりの数

まずは、AIセキュリティはセキュリティ対策の枠組みで、どの程度掘り下げられているのでしょうか。

世界的には、AIのためのセキュリティスタンダードの体系化の議論は数年前から徐々に実を結んで来ているようです。ISFによる会員向けセキュリティ管理のバイブル、ISF Standard of Good Practice for information Securityの2024年版に一定の体系化をみることができます。そこには、60数個の優良実務慣行(からくりの作り方)が定義されておりますので、現実的に採用可能な技術というのは、数としてはそれくらい認識されている状況といえるでしょう。

では、その技術の有効性はというと、セキュリティの中核的3要素である機密性、可用性、完全性から判断して、中から高のレベルまでは練れていると評価できるようです(ISFのリサーチアナリストの評価)。つまり、守りの技術としては、体系化や有効性評価が一定程度進み、方法論が共有されてきているというのが、世界の実務最前線の現在地でしょうか。

からくり技術ですぐイメージされる秘密箱を念頭に浮かべると、その基本技術である指物の仕口(しくち。工夫のこと)には、数十の技術があるそうですから、AIセキュリティの工夫も一通り出来たという感じなのでしょうか。

からくりの構造

上述の60数個のコントロールの具体的な中身は、会員限定情報ですから、公には詳らかにできませんが、2つの視点に基づいて構造設計されているということは、本ブログの読者にはヒントとしてお伝えしても許されるのではないかと考えます。

まず一つ目の視点は、AI Security Managementという枠組みで、AIを活用した攻撃を検知し、その影響と頻度を低減し、関連するセキュリティインシデントに迅速かつ効果的に対応することを、目的としています。攻めに使われるAIにどう対抗するのか、ということになります。

次に第二の視点は、Machine Learning Systemsと題して、正確で信頼できる情報を処理・生成するMLシステムを構築・運用する、ことを目的としております。つまり、会社経営が目論見通り目標に向かっていくことを保証する活動ということです。

これで、2つの方向で、からくりを構造設計していけば良いことが判りました。後は、機密性、可用性、完全性を念頭に、ひとつひとつの仕掛けを工夫していくことになるでしょう。