生成AI活用システム診断
ChatGPT等の生成AIを活用したシステム固有の
セキュリティリスクを可視化します
サービス概要
生成AIを活用したWebサービスやシステムの脆弱性を診断します。従来のWeb脆弱性診断では検出できない生成AI固有の脆弱性を国際基準を用いた診断で検出し、セキュリティリスクを可視化します。
-
インプット
ドメイン・URL
認証情報
ソースコード(オプション) -
診断
国際標準に基づいた診断
(OWASP Top10 for LLMs) -
アウトプット
生成AIアプリケーションの
脆弱性と改善提案
主な診断項目
OWASP Top10 for LLMs※に沿った診断を実施
※ OWASP Top 10 for Large Language Model Applications
OWASP Top10 for LLMs 2023-v1.1
の項目例
- プロンプトインジェクション ( Prompt Injection )
- 安全でない出力処理( Insecure Output Handling )
- トレーニングデータの汚染( Training Data Poisoning )
- モデルへのDoS攻撃( Model Denial of Service )
- サプライチェーンの脆弱性( Supply Chain Vulnerabilities )
- 機密情報の開示( Sensitive Information Disclosure )
- 安全でないプラグインの設計( Insecure Plugin Design )
- 過剰なエージェンシー( Excessive Agency )
- 過度の信頼( Overreliance )
- モデルの盗難( Model Theft )
料金:¥1,000,000円~
SHIFT SECURITYの生成AIシステム活用診断は、
通常のWebアプリケーション診断のプランと
組み合わせ可能です。
診断スケジュール例
診断実行日数が5日間の準委任の場合よくある質問
-
具体的にどのような生成AI固有のリスクがありますか?
-
生成AI固有のリスクの代表例としてはプロンプトに対する攻撃があります。プロンプトとは生成AIへの依頼を記したテキストを指します。意図しないテキストでプロンプトを構築され、意図しない動作を引き起こしてしまう場合があります。典型的な攻撃例としては、本来は利用者に表示されないはずのプロンプト自体を出力させる行為などがあります。
-
独自の学習データは利用していないので、生成AIに関する診断は不要ですか?
-
独自データを利用していない場合も診断の実施を推奨いたします。独自のモデル構築やファインチューニングなどの独自の学習を利用しない場合でも、生成AI利用には固有のリスクが生じます。OWASP Top10 for LLMsの観点にはトレーニングデータの汚染がありますが、それ以外の観点は独自の学習データに関わらず注意する必要があるため、診断の実施を推奨しています。
-
生成AI活用システム診断はブラックボックステストで実施可能ですか?
-
ブラックボックステストでの実施が可能です。また、診断対象のソースコードを提供可能な場合は一部観点をホワイトボックスにて評価することも可能です。提供不可の場合はヒアリングとブラックボックステストの範囲で診断を実施します。