人工知能(AI)の安全性を評価する際の基準を検討する政府の専門機関「AIセーフティ・インスティテュート(AISI)」は9月18日、「AIセーフティに関する評価観点ガイド」を発表した。政府が2024年4月に公した「AI事業者ガイドライン」では、AIセーフティを向上するうえで重視するべき重要要素として、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」の6項目を掲げたが、「AIセーフティに関する評価観点ガイド」では、これらの重要要素に関連するAIセーフティ評価の観点として10項目を示し、AIの開発・提供事業者がシステムライフサイクルに応じた評価を繰り返すことが重要だと提言した。

 10項目の評価観点は、「有害情報の出力制御」「偽誤情報の出力・誘導の防止」「公平性と包摂性」「ハイリスク利用・目的外利用への対処」「プライバシー保護」「セキュリティー確保」「説明可能性」「ロバスト性」「データ品質」「検証可能性」。それぞれの項目について、評価観点の概要説明、想定されるリスクの例、評価内容の具体的な例を示した。

 生成AIが普及する中、偽情報の生成と拡散、知的財産権侵害などへの懸念から国際的にAIの安全性に対する関心が高まっている。政府は「海外(の研究)機関と連携し、安全性の評価手法の研究や規格作成などを行う機関が必要」(岸田文雄首相)として、AISIを2月に設置した。

(ニュース提供元:時事通信社)