技術や仕組み

12 AIのセキュリティリスクについて

12 AIのセキュリティリスクについて
監修者情報
監修者アイコン
蕏塚 昌大

大学院では物理学の国際共同実験に携わり、機械学習を活用したソフトウェアモジュールを開発。2017年に新卒として株式会社SHIFT SECURITYに入社。標準化エンジニアとしてWebアプリケーションやクラウドの診断をはじめとする各種セキュリティ診断サービスの標準化を推進。週末は庭の雑草抜きに勤しむ。好きな言葉は「根こそぎ」。

これまで、生成AIの利用方法や可能性について探求してきたが、
今回はAIのセキュリティリスクにフォーカスしてみたいと思う。

世間でも特に注目されている3つのリスクを挙げてみる。

  • ① 入力データの学習

    AIとの会話は学習され、第三者への回答に使われることがある。
    機密情報が含まれていると、結果的に情報漏洩が起こる可能性もゼロではない。
    このリスクは生成AIだけでなく、日常的に利用するWebサービスも同様だ。
    たとえば、GoogleやYahooといった検索サービスで入力したキーワードは、検索候補の生成などに使われたりする。
    そのため、機密情報を扱う場合は、そのサービスのポリシーを確認することが重要だ。
    ChatGPTの場合、チャット画面の入力は学習に利用されることがあるが、
    APIへの入力は利用されないことになっている(OpenAIのFAQ)。

  • ② 入力データの流出

    一般的に、入力されたデータはサーバー側のデータベースやログに保管される。
    サーバーが何らかの方法で侵害されると、これらのデータが漏えいする可能性がある。
    これも、Webサービスを利用する際に注意するべきリスクの一つだ。
    利用するWebサービスについて、適切なセキュリティ対策が取られているかをチェックすることが重要になる。
    イーロン・マスク氏らが設立に携わるOpenAIもセキュリティの専用ページで、
    どのような体制を取っているかを説明している。
    もちろん、社内業務においては、社内ポリシーを守ってサービスを利用することが大前提だ。

  • ③ 出力結果の悪用

    AIが生成した文章や画像は、人間が作ったものと見分けがつかない。
    これを悪用する試みも増えている。
    たとえば、SNSのXでは、感想を装った返信をAIで生成・投稿して利益を得ようとする活動がある。
    生成AIは誰でも利用できるため、悪用を防ぐことは難しくなっている。
    インターネット上の情報に対しては、発信元を確認することが依然として大切になる。

リスクはどんな活動にも付きもので、ゼロにすることはできない。
そんな中で、リスクを正しく認識し、状況に応じて適切な対応が取れるよう向き合っていく必要がある。

これらのセキュリティリスクを考慮しつつ、設計アシスタントAIの開発を進めていく。

次の話 13 ChatGPT社内利用ガイドラインをChatGPTで作った話

生成AI活用システムの脆弱性診断はSHIFT SECURITYにお任せください

生成AI活用システムの脆弱性診断

ChatGPT等の生成AIを活用した
システム固有のセキュリティリスクを可視化します

生成AI活用システム診断ページはこちら
\ 記事をシェアする /

こちらの記事もおすすめ

Contact

お見積り・ご相談など、お気軽にご相談ください

ご相談・ご質問はこちら

お問い合わせ

お見積り依頼はこちら

お見積り依頼

資料請求はこちら

資料請求

お電話でのご相談はこちら
(平日10:00~18:00)

TEL.050-1707-3537
サイトTOPへ