セキュリティの
学び場

SHIFT SECURITY セキュリティの学び場 技術や仕組み ダークサイドAI: ディープフェイク

ダークサイドAI: ディープフェイク

ダークサイドAI: ディープフェイク
目次
  • ディープフェイクとは
  • AIを利用した高度なフェイクの登場
  • 高品質な画像と音声の悪用
  • ディープフェイクへの対策
  • 最後に

ディープフェイクとは

ディープフェイク(deepfake)は、AI技術を用いて映像や音声などを偽造する技術、そうして合成されたメディアのことです。深層学習(deep learning)のディープと偽物を意味するフェイクとの合成語になっています。AI支援のフィッシングと同様に、AI技術の悪用およびセキュリティ上あるいは社会的な脅威として近年話題に上がっています。

AIを利用した高度なフェイクの登場

ディープフェイクの登場の背景には生成系AIの技術的進歩および利用が容易になったことがあります。

写真や音声の偽造は古くからあり、個人への中傷・政治的なプロパガンダ・愉快犯的なお騒がせ・研究成果の捏造・なりすましなど、様々な目的で悪用されてきました。これには相当の技術や手間がかかっており、クオリティが高いものとなると専門的な知見や技術が必要なものでした。

しかし生成系AIによって誰でも容易に高品質なメディアコンテンツを作成可能になりました。企業の製品販促や個人のクリエイティビティの補助としては非常に有益なツールが利用できるようになったわけですが、同時に、捏造などのメディアコンテンツの悪用にとっても極めて強力なツールの登場とも言えるのです。本物そっくりの顔で人を騙すディープフェイススワップ(deep face swap)による詐欺が700%増加したとの報告もあります。

高品質な画像と音声の悪用

近年、画像や音声の偽造による脅威が急増しています。有名政治家や企業CEOや俳優などの捏造画像がSNSで拡散されては、ディープフェイクによるものだったと後に判明するといった事象を目撃した方もいらっしゃるでしょう。これは個人の名誉を棄損する悪用例ですが、被害を受けるのは個人に限らず、組織や集団もまたディープフェイクによる欺きの対象になりえます。以下に、ディープフェイクによる社会的な脅威を大まかに挙げてみます。

  1. ・詐欺とデマ

    組織を弱体化・不安定化させる詐欺、虚偽の主張、デマを作成できます。例えば、金融業幹部の偽ビデオを作成して不正会計やロンダリングなどの犯罪行為を認める主張をさせるなどすることができます。反証に膨大な時間と費用がかかるだけでなく、企業のブランド、社会的評価、株価に大きな影響を与える可能性があります。

  2. ・選挙操作

    前述の通り、ディープフェイクは有名政治家の偽動画を拡散するために使用されており、選挙操作に使用されることが懸念されます。

  3. ・ソーシャル・エンジニアリング

    ディープフェイク技術はソーシャル・エンジニアリング詐欺にも利用されています。音声のディープフェイクによって信頼できる人物を騙り、巨額の資金を移動するように説得するなどの事例があるようです。対象とする企業の従業員を同様の手口で騙すことができれば、機密情報へのアクセス権を付与してもらったりマルウェアをインストールさせたりすることも可能でしょう。

  4. ・個人情報の窃盗と金融詐欺

    ディープフェイクは、新しいIDを作成したり、実在の人物のIDを盗んだりするのにも利用できます。書類や被害者の声を偽造することが可能なので、これによってなりすましでアカウントを作成したり、商品購入やサービス利用が可能になります。

ディープフェイクへの対策

ディープフェイクによる映像加工を見分けるに当たっては下記のような点がよく言及されます。

  1. ・不自然な目の動き

    通常、人間は話している相手に反応しながら目が動くが、これを自然なレベルで再現するのは困難。瞬きも同様。

  2. ・表情や髪型、画像全体としてのバランスの不自然さ

    モーフィングで顔画像を作成するので表情の変化が不自然。髪も同様。また、顔の作成に焦点を当てているため、体型を全体として見るとバランスが不自然。画像全体の遠近感についても同様のことが言える。

  3. ・唇の動きと発生の不一致

    発している言葉と唇の動きが一致しないことがある。

    フェイク画像と言われてから上記の点に注意するとそのようにも見えてきますが、一般には人の目視で真偽判定するのは困難です。また、今後のAI技術の発展によって、より一層難しくなることが予想されます。そんな中、技術的なディープフェイク対策として以下のような動きがあります。

  4. ・C2PA

    Coalition for Content Provenance and Authenticityの略で、デジタルコンテンツの信憑性の証明に取り組む団体です。メディアコンテンツの来歴をデジタル署名により認証する技術規格の開発が進められています。( 関連サイト https://c2pa.org/

  5. ・CAI

    Content Authenticity Initiativeの略で、デジタルコンテンツの信憑性や来歴に関する仕様の利活用を推進する団体です。C2PAで定めた技術仕様に則ったツールや開発キット(SDK)をオープンソースとして提供するなどの活動を通して仕様の普及を促進する活動をしています。( 関連サイト https://contentauthenticity.org/

    コンテンツの来歴証明技術の策定には様々な企業が参画しています。この団体に個人として参画するのは困難ですが、仕様とツールの利用者として普及に努めることなら我々にも可能です。

    既に一般のコンテンツ消費者が簡易に利用できるツールがWebアプリケーションとして提供されております。Webページにコンテンツファイルをドラッグ&ドロップするだけでC2PA仕様の認証情報を確認してくれます (https://contentcredentials.org/verify )。

    ちなみに、私がスマホで撮影したjpgファイルを無加工で読ませたところ、「コンテンツ認証情報なし」とのことでした。今後はハードレベルでも自動で認証情報を付与してくれるようになってくれることが期待されます。SONYは2023年11月にデジカメで実証実験を実施したとの報告をしております(https://www.sony.co.jp/corporate/information/news/202311/23-049/ )。

    今後、こうした取り組みによってディープフェイクをはじめとする様々なコンテンツ詐欺対策が促進・普及されることが期待されます。みなさまもコンテンツ作成時にはC2PA仕様のツール利用を検討してみてください。

    その他、組織やサービスレベルでは、認証プロセスの多段化(MFA)や業務プロセスのチェック体制の多層化などによって詐欺対策を実施することが推奨されます。ディープフェイク対策を謳うセキュリティソリューションも出てきておりますので、どのような機能やサポートがあるかチェックしてみるのも良いでしょう。名誉棄損や企業の評判に係わることに関しては、声明の公開ポリシーや法務態勢を強化する必要があるでしょう。また、当該コンテンツを媒介しているSNSにおいても発信源や出典情報を可能な限りチェックすることも忘れないようにしたいものです。

最後に

本記事ではAIに支援されたフェイクについて紹介しましたが、AIのダークサイドによる脅威は今後も様々なものが登場する可能性があります。日頃から丁寧に多角的・多層的な対策を施したり、対策関連団体の動向をチェックすることで被害を極力抑え、対策普及に貢献するなど心掛けたいものです。

この記事の著者 セキュリティハムスター

2015年から株式会社SHIFTにてソフトウェアテストに従事。Webドライバーによるテスト自動化やNANDメモリのファームウェアテスト業務を経て2016年から株式会社SHIFT SECURITYにてサイバーセキュリティ事業に従事。同社ではWebアプリケーションやプラットフォームの脆弱性診断、ペネトレーションテスト、セキュリティコンサルティング、負荷試験と多岐に渡って事業を推進。また標準化エンジニアとして同社の診断・テストサービスの標準化に携わる。

\ 記事をシェアする /

Contact

お見積り・ご相談など、お気軽にご相談ください

ご相談・ご質問はこちら

お問い合わせ

お見積り依頼はこちら

お見積り依頼

資料請求はこちら

資料請求

お電話でのご相談はこちら
(平日10:00~18:00)

TEL.050-5532-3255
サイトTOPへ