技術や仕組み

13 ChatGPT社内利用ガイドラインをChatGPTで作った話

13 ChatGPT社内利用ガイドラインをChatGPTで作った話
監修者情報
監修者アイコン
蕏塚 昌大

大学院では物理学の国際共同実験に携わり、機械学習を活用したソフトウェアモジュールを開発。2017年に新卒として株式会社SHIFT SECURITYに入社。標準化エンジニアとしてWebアプリケーションやクラウドの診断をはじめとする各種セキュリティ診断サービスの標準化を推進。週末は庭の雑草抜きに勤しむ。好きな言葉は「根こそぎ」。

ChatGPTが話題になり始めた頃、前回の記事で取り上げたセキュリティ面での懸念、
特に業務利用におけるリスクについて、様々な声が聞こえ始めていた。

僕も社内承認を得た上で、機密情報を入力しないなどの注意点を踏まえながら利用していたものの、ChatGPTの公式サイトと見紛う模擬サイトの存在を知るなど、危機感を募らせていた。

そこで、ほかの従業員も安全に利用できるようにするために、
社内利用ガイドラインを作成することにした。

こういう注意点を含めたいという要件があったので、
それを基にガイドライン化すれば良い。
その作業を、ChatGPTに任せてみることにした。

以下、入力したプロンプト(一部改変)と、ChatGPTが生成したガイドラインの一部を紹介する。

入力プロンプト

ChatGPT社内利用ガイドラインをMarkdown形式で作成してください。方針は以下の通りです:

  • - 業務中に利用するには、利用開始前にガイドラインを熟読した上で、所定のフォームを提出する必要がある
  • - 機微な情報は質問として入力してはいけない。例: 検出した脆弱性の情報、顧客情報(顧客名など)、個人情報、クレカ情報
  • - 生成された文章やソースコードを利用、実行する前に、品質や安全性をチェックし、必要に応じて修正しなければならない

ChatGPT生成ガイドライン抜粋

# ChatGPT社内利用ガイドライン
このガイドラインは、ChatGPTを効果的かつ責任ある方法で社内で利用するための手順と方針を提供します。以下の指示に従って、ChatGPTを安全かつ適切に活用してください。

## 利用申請手続き
1. ChatGPTを利用する前に、このガイドラインを熟読してください。
2. 利用開始前に、所定のフォームを提出してください。利用開始の承認が得られるまでは、ChatGPTの利用は許可されません。

## 機微な情報の取り扱い
1. ChatGPTを利用する際は、機微な情報に関する質問を入力しないでください。以下の情報は例ですが、これに限定されません:

  • - 検出した脆弱性の情報
  • - 顧客情報(顧客名など)
  • - 個人情報
  • - クレジットカード情報

このように、ChatGPTはプロンプトに記載されていた内容に加え、
一般的な注意点なども盛り込んだガイドラインを作成してくれた。

このガイドラインをもとに、社内での安全な利用を促していくことにした。

また、元となったプロンプトをガイドラインの付録として添付してみた。
これは、同様のガイドライン作成の参考資料として、
また、生成AIを活用したドキュメント作成の可能性を社内に共有する目的でもある。

生成AIにはリスクもあるが、適切に活用すれば業務でも大きな効果を発揮できる。

今後も、ChatGPTをはじめとするAI技術の社内展開に向けて、積極的に取り組みを進めていきたい。

次の話 14 ”発言を資産化する仕組み”をAIで作ってみた(前編)

生成AI活用システムの脆弱性診断はSHIFT SECURITYにお任せください

生成AI活用システムの脆弱性診断

ChatGPT等の生成AIを活用した
システム固有のセキュリティリスクを可視化します

生成AI活用システム診断ページはこちら
\ 記事をシェアする /

こちらの記事もおすすめ

Contact

お見積り・ご相談など、お気軽にご相談ください

ご相談・ご質問はこちら

お問い合わせ

お見積り依頼はこちら

お見積り依頼

資料請求はこちら

資料請求

お電話でのご相談はこちら
(平日10:00~18:00)

TEL.050-1707-3537
サイトTOPへ