これまで、生成AIの利用方法や可能性について探求してきたが、
今回はAIのセキュリティリスクにフォーカスしてみたいと思う。
世間でも特に注目されている3つのリスクを挙げてみる。
AIとの会話は学習され、第三者への回答に使われることがある。
機密情報が含まれていると、結果的に情報漏洩が起こる可能性もゼロではない。
このリスクは生成AIだけでなく、日常的に利用するWebサービスも同様だ。
たとえば、GoogleやYahooといった検索サービスで入力したキーワードは、検索候補の生成などに使われたりする。
そのため、機密情報を扱う場合は、そのサービスのポリシーを確認することが重要だ。
ChatGPTの場合、チャット画面の入力は学習に利用されることがあるが、
APIへの入力は利用されないことになっている(OpenAIのFAQ)。
一般的に、入力されたデータはサーバー側のデータベースやログに保管される。
サーバーが何らかの方法で侵害されると、これらのデータが漏えいする可能性がある。
これも、Webサービスを利用する際に注意するべきリスクの一つだ。
利用するWebサービスについて、適切なセキュリティ対策が取られているかをチェックすることが重要になる。
イーロン・マスク氏らが設立に携わるOpenAIもセキュリティの専用ページで、
どのような体制を取っているかを説明している。
もちろん、社内業務においては、社内ポリシーを守ってサービスを利用することが大前提だ。
AIが生成した文章や画像は、人間が作ったものと見分けがつかない。
これを悪用する試みも増えている。
たとえば、SNSのXでは、感想を装った返信をAIで生成・投稿して利益を得ようとする活動がある。
生成AIは誰でも利用できるため、悪用を防ぐことは難しくなっている。
インターネット上の情報に対しては、発信元を確認することが依然として大切になる。
リスクはどんな活動にも付きもので、ゼロにすることはできない。
そんな中で、リスクを正しく認識し、状況に応じて適切な対応が取れるよう向き合っていく必要がある。
これらのセキュリティリスクを考慮しつつ、設計アシスタントAIの開発を進めていく。
次の話 13 ChatGPT社内利用ガイドラインをChatGPTで作った話
ChatGPT等の生成AIを活用した
システム固有のセキュリティリスクを可視化します
お見積り・ご相談など、お気軽にご相談ください
サイトTOPへ