人工知能(AI)の安全性を評価する際の基準を検討する政府の専門機関「AIセーフティ・インスティテュート(AISI)」の村上明子所長が15日までにインタビューに応じ、安全なAIを使っているかどうかを事業者が確認するためのチェックポイントを整理していることを明らかにした。月内をめどに公表する。
 生成AIが普及する中、偽情報の生成と拡散、知的財産権侵害などへの懸念から国際的にAIの安全性に対する関心が高まっている。政府は「海外(の研究)機関と連携し、安全性の評価手法の研究や規格作成などを行う機関が必要」(岸田文雄首相)として、AISIを2月に設置した。
 村上氏は「(事業者の使用している)AIが安全か危険かをどのようにすれば評価できるか、という観点を整理している」と述べた。基準の策定に先立ち、生成AIが個人情報を読み込んだデータを参照していないかなどを確認するための観点をまとめ、安全性評価の参考にしてもらうのが目的。AIのセキュリティー上のリスクを事前に特定するテストの手順書公開も検討する。
 AI規制を巡っては、欧州連合(EU)が5月に関連法を成立させた。日本でも法規制の必要性に関する議論が始まった。村上氏は、規制の議論では「人命や人権に関わる部分を法制度で守っていく検討を怠ってはいけない」と指摘した。
 AISIは現在、関係省庁や民間企業からの出向者ら24人の体制。村上氏は、専門人材の確保を進め、組織を2倍程度に拡大していきたい考えも示した。基準策定に向け、産業技術総合研究所や理化学研究所などとの協力も進めていく方針だ。 
〔写真説明〕インタビューに応じるAIセーフティ・インスティテュート(AISI)の村上明子所長=7月26日、東京都新宿区
〔写真説明〕インタビューに応じるAIセーフティ・インスティテュート(AISI)の村上明子所長=7月26日、東京都新宿区

(ニュース提供元:時事通信社)