今後2‐3年に顕在化しうる脅威について、セキュリティリーダーの皆様のお話を伺っていますと、ついこの数年、AIへの取り組み課題にまつわる話題が多くなってきました。筆者が接しうる大手企業の方はいずれも、技術的なポイントを的確に押さえた上で、ビジネスのみならず、社会や国家のレベルでも多様な議論に応じられるほど、幅広い知識と論理的な整理が行き届いておられます。

良薬は口に苦し、と申しますが、苦いだけならまだしも、AIの薬効はまだまだ保証されている開発段階ではないようです。利活用をもくろむ企業にとって、AIはうまく使いこなしてこそはじめて、企業経営の不調(腹痛)によく効く(越中富山の)反魂丹(はんこんたん)となるようですが、無暗に用いると安本丹(あんぽんたん)ぶりを発揮したり、犯罪者にいいようにされたりで、厄介なことになるようです。

では、どういう実務的な工夫をすれば、安心して飲める薬になるのか。今回の小文で申し上げたいことは、社内セキュリティチームに、全社AIリスクマネジメントの中核に入っていただいて、グローバルグループで健康増進に励まれてはいかがでしょうか、という提言です。

AI事業者ガイドライン

今年4月に、本邦行政府(総務省・経産省)が公表した「AI事業者ガイドライン(第1.0版)」という資料があります。ここには、AIガバナンスに関する10の指針が示されております。つまり、10のリスクの素がある訳です。イの一番に掲げられるのが、「人間中心」であります。この概念は、「人間尊重」、「多様性の包摂」、「持続可能性」の3つの社会的理念から導出されているそうです。従って、AIを利活用しようとする各企業においても、AIガバナンスの土台に、尊重されるべき人間が据えられることになります。しかし、事業経営という人間が営む経済活動に資するべき道具を使うのに、人間が大事と言うなぞ、そもそも安本丹な薬ではないかと思います。

さらに、10の指針の内、リスク管理の点で優先順位の高い5項目、すなわち「2.安全性」「3.公平性」「4.プライバシー保護」「5.セキュリティ確保」「6.透明性」「7.アカウンタビリティ」については、AIの開発者、提供者、利用者の三主体別に、具体的な役割期待が書き下されています(上記ガイドラインp.21 表1.参照)ので、日本のあらゆる組織体がこのルール(ゲームプラン)に則って経済活動をするよう、要請されているようです。

そうは申されても、こういう抽象的な要請は、悲しいかな浸透しないのが世の常と、陰口を叩くのはどなたでしょうか。

良薬にできる組織はどこか

確かにこのガイドラインは良く出来ていて、さまざまな問題群を整理してくれています。ただ、色々な観点がありすぎて、主体者(たとえば利用者)の組織内でどのように実務的な調整を進めて行けば、AIの薬効が出て来るのか、については直ちにはイメージが湧かないように思われます。ガイドラインをよすがとしたところで、法務部やコンプライアンス部の観点で調整できるはずもありません。とは言え、社内で上手く調整できる自信がないと言って、使わないでいると腹痛が治らないどころか、リスクを抱え込んでしまったり、ひいてはビジネスの競争に負けてしまったりしそうです。コンサルタントにお声がけすると、当社の「痛い腹」を探られて、余計なことになりそうです。

まだ、あまり実務書が多くない中、たとえば、『責任あるAIとルール』(古川・吉永、金融財政事情研究会、2024年5月)という本を読みますと、こういう手がかりがあります。直截的に、「何をすればよいのか」(第8章)という問いの下、リスクを軽減するための具体策として「1.人間によるチェック、モニタリング」から「14.人間の『知りたい』という欲求とどうバランスをとるか」まで14の項目が並んでいます。これなら着手のイメージは明確ですが、「人間」がここでも強調されていて、ぴたりと当てはまる担当部署は通常の会社組織にはありません。人事部ではないとすれば、さしずめDX本部みたいなところにお鉢が回りそうです。それで良いのでしょうか。

セキュリティチームに白羽の矢を立てる

何か良い工夫はないか。切り口として、セキュリティチームに白羽の矢を立ててみます。セキュリティチームは、時代の変遷とともにさまざまな技術的問題や人間の問題を扱ってきました。ITセキュリティ、情報セキュリティ、個人情報/プライバシー保護(セキュリティ)、ネットワークセキュリティ、サイバー(コンピュータ)セキュリティ。対象とする役職員も、間違いや、余計なことや、思い違いをしてしまった人、技術音痴、技術オタク、などなどさまざまな人を相手にしています。

そして、特筆すべきは、社内外の犯罪者を相手にしてきたことです。そうです、「人間中心」主義と言っても、良い人ばかりではないわけです。社内の安本丹もAIへの攻撃者(上記ガイドラインp.11)も含めるべきです。特に、AIは過去の社会や社内の善行だけではなく、悪行も学ぶことができることを考えると、セキュリティチームが中核に必要と言わざるを得ないのではないでしょうか。

役員の目線でセキュリティの仕事と役割を整理する

この着想を実務的な考えに深めるために、ISF CEOのSteve Durbin氏に普段からお付き合いのある役員の方々の目線で論点整理をしてもらうことにしましょう。
 

(以下、引用)


AIのリスクとメリット:リスク軽減と抑制のための戦略

Steve Durbin/CEO, the ISF
June 5, 2024
Forbes

(Image: Getty)

人工知能は、今やあらゆる企業の役員室で議題に上っていると言ってよいほどですが、間違いなく人々の働き方と企業経営に革命をもたらすでしょう。しかし、この黎明期のテクノロジーによって、現在あるいは将来において、もたらされる大きなリスクとは何でしょうか? また、そうした脅威にどのように対処し、軽減していけばよいのでしょうか。

産業規模になるサイバー攻撃

AIの普及が進めば進むほど、AIを悪用した標的型の大規模かつインパクトの大きいサイバー攻撃が次々と工業規模で行われることになり、そのために多くの企業がこれに対処しきれずに業務に支障をきたすようになることを、我々が目の当たりにすると予想します。この段階になると、脅威のアクターたちも産業化が進み、一匹狼の犯罪者から、高度な技術力を備えて組織化の進んだサイバー犯罪シンジケートへと移行し、国家による資金援助とそれに伴うあらゆる保護が受けられる存在になっている可能性もあります。

データ源泉の汚染

企業側が従来型のサイバー攻撃に対する技術的な防御策を強化するにつれて、脅威のアクターたちは不正なデータ操作に目を向けるようになっていくと私は考えています。その結果、攻撃者の行動はますます見えなくなり、発見が難しくなる可能性があります。そして、企業にとって依存度が高まっている従業員関連データの正確性や信頼性が損なわれる可能性が出てきます。AI モデルを不正に操作される可能性は、ソフトウェアコードの領域であれ、保存または処理される情報の領域であれ、依然として大きな問題として残されています。

弁(わきま)えてはじめて頼れるAI

これまでにAIは、画期的な利用事例を生み出してきました。特に、スピード、効率性、反復性、一貫性、継続利用、拡張性などの機能領域において顕著です。一例を挙げると、海洋科学者たちはAIと深層機械学習(ML)を駆使して、マッコウクジラが発生させる音波の反響を検出し、集団間で共有される言語を解釈しています。我々のビジネスの実務レベルでは、AIが生産性向上に寄与しうる業務としては、分類、要約、質問への応対などのタスクが挙げられます。ですから、財務的な予測、予算の差異分析、傾向と見通しの要約などにも役立てることができます。

一方で、複雑な意思決定の場面においては、常に人が持つ創造性や感性的な知性といった人間性が必要とされることが続くでしょう。AIやMLだけでは、人間が生み出すこれらの特性を現実化することはできません。この点は、AIに頼りすぎるリスクに直面しないためにも、企業は一線を引かなければならないところかと思われます。