ディープフェイク(deepfake)は、AI技術を用いて映像や音声などを偽造する技術、そうして合成されたメディアのことです。深層学習(deep learning)のディープと偽物を意味するフェイクとの合成語になっています。AI支援のフィッシングと同様に、AI技術の悪用およびセキュリティ上あるいは社会的な脅威として近年話題に上がっています。
ディープフェイクの登場の背景には生成系AIの技術的進歩および利用が容易になったことがあります。
写真や音声の偽造は古くからあり、個人への中傷・政治的なプロパガンダ・愉快犯的なお騒がせ・研究成果の捏造・なりすましなど、様々な目的で悪用されてきました。これには相当の技術や手間がかかっており、クオリティが高いものとなると専門的な知見や技術が必要なものでした。
しかし生成系AIによって誰でも容易に高品質なメディアコンテンツを作成可能になりました。企業の製品販促や個人のクリエイティビティの補助としては非常に有益なツールが利用できるようになったわけですが、同時に、捏造などのメディアコンテンツの悪用にとっても極めて強力なツールの登場とも言えるのです。本物そっくりの顔で人を騙すディープフェイススワップ(deep face swap)による詐欺が700%増加したとの報告もあります。
近年、画像や音声の偽造による脅威が急増しています。有名政治家や企業CEOや俳優などの捏造画像がSNSで拡散されては、ディープフェイクによるものだったと後に判明するといった事象を目撃した方もいらっしゃるでしょう。これは個人の名誉を棄損する悪用例ですが、被害を受けるのは個人に限らず、組織や集団もまたディープフェイクによる欺きの対象になりえます。以下に、ディープフェイクによる社会的な脅威を大まかに挙げてみます。
組織を弱体化・不安定化させる詐欺、虚偽の主張、デマを作成できます。例えば、金融業幹部の偽ビデオを作成して不正会計やロンダリングなどの犯罪行為を認める主張をさせるなどすることができます。反証に膨大な時間と費用がかかるだけでなく、企業のブランド、社会的評価、株価に大きな影響を与える可能性があります。
前述の通り、ディープフェイクは有名政治家の偽動画を拡散するために使用されており、選挙操作に使用されることが懸念されます。
ディープフェイク技術はソーシャル・エンジニアリング詐欺にも利用されています。音声のディープフェイクによって信頼できる人物を騙り、巨額の資金を移動するように説得するなどの事例があるようです。対象とする企業の従業員を同様の手口で騙すことができれば、機密情報へのアクセス権を付与してもらったりマルウェアをインストールさせたりすることも可能でしょう。
ディープフェイクは、新しいIDを作成したり、実在の人物のIDを盗んだりするのにも利用できます。書類や被害者の声を偽造することが可能なので、これによってなりすましでアカウントを作成したり、商品購入やサービス利用が可能になります。
ディープフェイクによる映像加工を見分けるに当たっては下記のような点がよく言及されます。
通常、人間は話している相手に反応しながら目が動くが、これを自然なレベルで再現するのは困難。瞬きも同様。
モーフィングで顔画像を作成するので表情の変化が不自然。髪も同様。また、顔の作成に焦点を当てているため、体型を全体として見るとバランスが不自然。画像全体の遠近感についても同様のことが言える。
発している言葉と唇の動きが一致しないことがある。
フェイク画像と言われてから上記の点に注意するとそのようにも見えてきますが、一般には人の目視で真偽判定するのは困難です。また、今後のAI技術の発展によって、より一層難しくなることが予想されます。そんな中、技術的なディープフェイク対策として以下のような動きがあります。
Coalition for Content Provenance and Authenticityの略で、デジタルコンテンツの信憑性の証明に取り組む団体です。メディアコンテンツの来歴をデジタル署名により認証する技術規格の開発が進められています。( 関連サイト https://c2pa.org/ )
Content Authenticity Initiativeの略で、デジタルコンテンツの信憑性や来歴に関する仕様の利活用を推進する団体です。C2PAで定めた技術仕様に則ったツールや開発キット(SDK)をオープンソースとして提供するなどの活動を通して仕様の普及を促進する活動をしています。( 関連サイト https://contentauthenticity.org/ )
コンテンツの来歴証明技術の策定には様々な企業が参画しています。この団体に個人として参画するのは困難ですが、仕様とツールの利用者として普及に努めることなら我々にも可能です。
既に一般のコンテンツ消費者が簡易に利用できるツールがWebアプリケーションとして提供されております。Webページにコンテンツファイルをドラッグ&ドロップするだけでC2PA仕様の認証情報を確認してくれます (https://contentcredentials.org/verify )。
ちなみに、私がスマホで撮影したjpgファイルを無加工で読ませたところ、「コンテンツ認証情報なし」とのことでした。今後はハードレベルでも自動で認証情報を付与してくれるようになってくれることが期待されます。SONYは2023年11月にデジカメで実証実験を実施したとの報告をしております(https://www.sony.co.jp/corporate/information/news/202311/23-049/ )。
今後、こうした取り組みによってディープフェイクをはじめとする様々なコンテンツ詐欺対策が促進・普及されることが期待されます。みなさまもコンテンツ作成時にはC2PA仕様のツール利用を検討してみてください。
その他、組織やサービスレベルでは、認証プロセスの多段化(MFA)や業務プロセスのチェック体制の多層化などによって詐欺対策を実施することが推奨されます。ディープフェイク対策を謳うセキュリティソリューションも出てきておりますので、どのような機能やサポートがあるかチェックしてみるのも良いでしょう。名誉棄損や企業の評判に係わることに関しては、声明の公開ポリシーや法務態勢を強化する必要があるでしょう。また、当該コンテンツを媒介しているSNSにおいても発信源や出典情報を可能な限りチェックすることも忘れないようにしたいものです。
本記事ではAIに支援されたフェイクについて紹介しましたが、AIのダークサイドによる脅威は今後も様々なものが登場する可能性があります。日頃から丁寧に多角的・多層的な対策を施したり、対策関連団体の動向をチェックすることで被害を極力抑え、対策普及に貢献するなど心掛けたいものです。
お見積り・ご相談など、お気軽にご相談ください
サイトTOPへ