MENU

AIセーフティ・インスティテュートが「AIセーフティに関する評価観点ガイド」を公開 ~AIセーフティに配慮したAIシステムの開発・提供に向けて

AIセーフティ・インスティテュートは9月18日、AIシステムの開発者や提供者がAIセーフティ評価を実施する際に参照できる基本的な考え方を提示するため、「AIセーフティに関する評価観点ガイド」を公開した。

AIシステムの開発・提供管理者が同書を参照することで、AIセーフティ評価の要点を確認でき、AIセーフティに配慮したAIシステムの開発・提供を行える。

同書では、今年4月に公表された「AI事業者ガイドライン」に加え、海外文献や関連ツール等に関する調査を踏まえて、AIセーフティ評価の観点や想定され得るリスクの例、評価項目例、評価の実施者や評価実施時期に関する考え方、評価に関する手法の概要などを提示している。

同書の主な想定読者は、AI開発者・AI提供者、特に「開発・提供管理者」や「事業執行責任者」であり、想定するシステムは大規模言語モデル(LLM)を構成要素とするAIシステム(LLMシステム)である。

同書の構成は以下のとおりである。

はじめに
AIセーフティ
評価観点の詳細
評価実施者及び評価実施時期
評価手法の概要
評価に際しての留意事項

同書では、AIセーフティの観点として、AI事業者ガイドライン「C. 共通の指針」において各主体が取り組む事項とされているもののうち、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」を重要要素としている。

同書ではこれら6つの重要要素に関連するAIセーフティ評価の観点を、昨今の技術的潮流を踏まえて導出した(「有害情報の出力制御」「偽誤情報の出力・誘導の防止」「公平性と包摂性」「ハイリスク利用・目的外利用への対処」「プライバシー保護」「セキュリティ確保」「説明可能性」「ロバスト性」「データ品質」「検証可能性」の10項目)。

AIセーフティ・インスティテュートは、AIの安全性に対する国際的な関心の高まりを踏まえ、AIの安全性の評価手法の検討等を行う機関として、内閣府をはじめとする関係省庁、関係機関の協力の下、2024年2月14日、独立行政法人情報処理推進機構(IPA)に設置された。

AIセーフティに関する評価観点ガイド
https://aisi.go.jp/2024/09/18/evaluation_perspectives

 

[i Magazine・IS magazine]