AIセーフティ・インスティテュートは4月2日、2024年9月に公開した「AIセーフティに関する評価観点ガイド」について、画像解析などAIの活用の幅が広がっている動向をふまえ、マルチモーダル基盤モデルを評価対象とする場合のAIセーフティの評価観点や各観点における評価項目例を調査し、改訂したと発表した。
第1.00版ではテキストを入出力にするようなLLMを構成要素とするAIシステムを対象としていたが、画像を扱うような多様なAIシステムを対象としたAIセーフティ評価の要請が高まっている。
今回2025年3月に学術論文を対象として、マルチモーダル基盤モデルを構成要素とするAIシステムのAIセーフティに関わる脅威やリスク、AIセーフティ評価手法などを記載した文献を調査した。その結果をふまえ、主に画像などを含むマルチモーダル情報を扱うAIシステムの評価において重要となる評価項目例を検討し、同書に追記したうえで、第1.10版として公表した。
同書の主な想定読者は、AI開発者・AI提供者、特に「開発・提供管理者」や「事業執行責任者」であり、想定するシステムは大規模言語モデル(LLM)を構成要素とするAIシステム(LLMシステム)である。
同書の構成は次のとおり。
はじめに
AIセーフティ
評価観点の詳細
評価実施者及び評価実施時期
評価手法の概要
評価に際しての留意事項
同書では、AIセーフティの観点として、AI事業者ガイドライン「C. 共通の指針」において各主体が取り組む事項とされているもののうち、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」を重要要素としている。
同書ではこれら6つの重要要素に関連するAIセーフティ評価の観点を、昨今の技術的潮流を踏まえて導出した(「有害情報の出力制御」、「偽誤情報の出力・誘導の防止」、「公平性と包摂性」、「ハイリスク利用・目的外利用への対処」、「プライバシー保護」、「セキュリティ確保」、「説明可能性」、「ロバスト性」、「データ品質」、「検証可能性」の10項目)。
第1.10版の改訂では、マルチモーダル基盤モデルを評価対象とする場合のAIセーフティの評価観点や各観点における評価項目例を調査した結果、「有害情報の出力制御」「公平性と包摂性」「プライバシー保護」「セキュリティ確保」「ロバスト性」「データ品質」の6つの観点について新たに評価項目例を記載した。
[i Magazine・IS magazine]