論文の概要: Active Fake: DeepFake Camouflage
- arxiv url: http://arxiv.org/abs/2409.03200v2
- Date: Wed, 16 Oct 2024 08:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 23:23:02.585077
- Title: Active Fake: DeepFake Camouflage
- Title(参考訳): アクティブフェイク:ディープフェイクカモフラージュ
- Authors: Pu Sun, Honggang Qi, Yuezun Li,
- Abstract要約: Face-Swap DeepFakeは、オリジナルの顔と合成顔とを交換することで振舞いを作る。
既存の法医学的手法は、主にディープニューラルネットワーク(DNN)に基づいており、これらの操作を効果的に公開し、重要な認証指標となっている。
混合不整合を発生し,不感,有効性,伝達性を確保したDeepFakeカモフラージュを作成するための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.976015496109525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DeepFake technology has gained significant attention due to its ability to manipulate facial attributes with high realism, raising serious societal concerns. Face-Swap DeepFake is the most harmful among these techniques, which fabricates behaviors by swapping original faces with synthesized ones. Existing forensic methods, primarily based on Deep Neural Networks (DNNs), effectively expose these manipulations and have become important authenticity indicators. However, these methods mainly concentrate on capturing the blending inconsistency in DeepFake faces, raising a new security issue, termed Active Fake, emerges when individuals intentionally create blending inconsistency in their authentic videos to evade responsibility. This tactic is called DeepFake Camouflage. To achieve this, we introduce a new framework for creating DeepFake camouflage that generates blending inconsistencies while ensuring imperceptibility, effectiveness, and transferability. This framework, optimized via an adversarial learning strategy, crafts imperceptible yet effective inconsistencies to mislead forensic detectors. Extensive experiments demonstrate the effectiveness and robustness of our method, highlighting the need for further research in active fake detection.
- Abstract(参考訳): DeepFakeの技術は、顔の特徴を高いリアリズムで操り、深刻な社会的関心を喚起する能力によって、大きな注目を集めている。
フェイススワップディープフェイクはこれらの技術の中でも最も有害であり、元の顔と合成顔とを交換することで振る舞いを創り出す。
既存の法医学的手法は、主にディープニューラルネットワーク(DNN)に基づいており、これらの操作を効果的に公開し、重要な認証指標となっている。
しかし、これらの手法は主にDeepFakeの顔のブレンド不整合を捉え、Active Fakeと呼ばれる新しいセキュリティ問題を提起する。
この戦術はディープフェイク・カモフラージュ(DeepFake Camouflage)と呼ばれる。
これを実現するために,混合不整合を発生させるDeepFake camouflageを作成するための新しいフレームワークを提案する。
このフレームワークは、敵対的な学習戦略によって最適化され、法医学的検出器を誤解させるには、理解できないが効果的な矛盾を解く。
大規模な実験により,本手法の有効性とロバスト性を実証し,アクティブフェイク検出におけるさらなる研究の必要性を浮き彫りにした。
関連論文リスト
- DiffusionFake: Enhancing Generalization in Deepfake Detection via Guided Stable Diffusion [94.46904504076124]
ディープフェイク技術は、顔交換を極めて現実的にし、偽造された顔コンテンツの使用に対する懸念を高めている。
既存の方法は、顔操作の多様な性質のため、目に見えない領域に一般化するのに苦労することが多い。
顔偽造者の生成過程を逆転させて検出モデルの一般化を促進する新しいフレームワークであるDiffusionFakeを紹介する。
論文 参考訳(メタデータ) (2024-10-06T06:22:43Z) - Shaking the Fake: Detecting Deepfake Videos in Real Time via Active Probes [3.6308756891251392]
生成AIの一種であるリアルタイムディープフェイク(Real-time Deepfake)は、ビデオ内の既存のコンテンツ(例えば、顔を別のものと交換する)を「生成する」ことができる。
金融詐欺や政治的誤報など、悪意ある目的のためにディープフェイクビデオを作るのに誤用されている。
本研究では,物理干渉に適応できないディープフェイクモデルを利用した新しいリアルタイムディープフェイク検出手法であるSFakeを提案する。
論文 参考訳(メタデータ) (2024-09-17T04:58:30Z) - Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning [0.0]
ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
論文 参考訳(メタデータ) (2024-02-06T11:35:05Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - FakeTracer: Catching Face-swap DeepFakes via Implanting Traces in Training [36.158715089667034]
Face-swap DeepFakeは、AIベースの顔偽造技術だ。
顔のプライバシーが高いため、この手法の誤用は深刻な社会的懸念を引き起こす可能性がある。
本稿では,FakeTracerと呼ばれる新しいプロアクティブ防御手法について述べる。
論文 参考訳(メタデータ) (2023-07-27T02:36:13Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - DeepFake Detection with Inconsistent Head Poses: Reproducibility and
Analysis [0.0]
本稿では,ヘッドポーズ推定に基づく既存のDeepFake検出手法について分析する。
以上の結果から,DeepFake検出のためのアートパフォーマンスに対する現在の文献の認識を正すことができた。
論文 参考訳(メタデータ) (2021-08-28T22:56:09Z) - Lips Don't Lie: A Generalisable and Robust Approach to Face Forgery
Detection [118.37239586697139]
LipForensicsは、操作の一般化と様々な歪みに耐えられる検出アプローチである。
視覚的音声認識(リリーディング)を行うために、初めて時間ネットワークを事前訓練する。
その後、リアルタイムおよび偽造データの固定された口埋め込みに時間的ネットワークを微調整し、低レベルな操作固有のアーティファクトに過度に適合することなく、口の動きに基づいて偽のビデオを検出する。
論文 参考訳(メタデータ) (2020-12-14T15:53:56Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。