独立行政法人情報処理推進機構(IPA)は9月18日、AIシステムの開発者や提供者がAIセーフティ評価を実施する際に参照できる基本的な考え方を提示するため、「AIセーフティに関する評価観点ガイド」を公開した。(記事はこちら)
【お届けするニュースはサイバーセキュリティ専門ニュースサイト「ScanNetSecurity」の提供でお送りしています。】AIシステムの安全性などを担保するための評価観点について、まとめられたガイドが公開されています。今回は、AIセーフティの評価観点ガイドを活用するポイントや、AIシステムを使う際に気を付けるべきポイントについて説明します。
今回のガイドは、2024年4月に公表された「AI事業者ガイドライン」に加え、海外文献や関連ツール等に関する調査を踏まえ、AIセーフティ評価の観点や想定され得るリスクの例、評価項目例、評価の実施者や評価実施時期に関する考え方、評価に関する手法の概要などを提示しています。
主な想定読者はAI開発者やAI提供者、特に「開発・提供管理者」や「事業執行責任者」で、想定するシステムは大規模言語モデルを構成要素とするAIシステムとしています。
人間中心の考え方をもとに、AI活用に伴う社会的リスクを低減させるための安全性や公平性、透明性が保たれた状態のことを意味します。具体的には、個人情報の不適正な利用等を防止するためのプライバシー保護、AIシステムの脆弱性等や外部からの攻撃等のリスクに対応するためのセキュリティ確保、システムの検証可能性を確保し適切な情報提供を行うためのものということです。
AIセーフティの観点として「人間中心」、「安全性」、「公平性」、「プライバシー保護」、「セキュリティ確保」「透明性」を重要要素としており、これら6つの重要要素に関連するAIセーフティ評価の観点を、昨今の技術的潮流を踏まえて導出しています。
評価観点ガイドを活用するポイントとして、AIシステムの安全性や信頼性を向上することに役立ちます。
AIセーフティの評価観点ガイドが提供する具体的な内容として、有害情報の出力制御、偽誤情報の出力・誘導の防止、公平性と包摂性など、多岐にわたる評価観点が挙げられます。各評価観点に対して、具体的な評価項目の例を示しており、技術的評価やマネジメント的評価などを、 誰が、いつ評価を実施すべきか、具体的な指針を示しています。
よって、AIシステムにおいて、どのような点に注意すべきかを具体的に示すことで、安全性や信頼性を高めるための対策を講じやすくすることができます。また、潜在的なリスクを事前に特定し、あらかじめ対策を講じることで、AIシステムの悪用や誤用を防ぐことも期待できます。
AIシステムを使う際に気を付けるべきポイントとして、主に安全性や倫理性、透明性について気を付けることが必要です。
AIシステムの安全性は、AIが意図しない結果を引き起こすのを防ぐことを意味します。具体的には、AIシステムが学習データに含めないような状況に対応できず、誤った判断をしてしまう可能性や、サイバー攻撃によって、AIシステムが乗っ取られて悪用される可能性を鑑みて、AIシステムへ入力するデータに気を付ける必要があります。
AIシステムの倫理性として、社会に与える影響を考慮して、倫理的な観点から利用することが必要です。具体的には、学習データに含まれる偏りが、AIの出力に反映され、特定の集団に対して差別的な結果をもたらしたり、AIシステムが自律的な判断でサイバー攻撃を行ってしまったりすることで、倫理的な問題を引き起こす可能性があります。
ブラックボックス化しがちな状況で、透明性が担保されたAIシステムを利用することが求められます。具体的には、AIシステムの判断根拠を説明できるようなモデルだったり、AIの内部状態を可視化して、人間が理解できるようにしたりすることが求められます。
1日10分で、気軽にセキュリティの知識を深めることができます。放送は月曜・水曜・金曜の朝7時15分です。
お見積り・ご相談など、お気軽にご相談ください
サイトTOPへ