論文の概要: AVA: Inconspicuous Attribute Variation-based Adversarial Attack
bypassing DeepFake Detection
- arxiv url: http://arxiv.org/abs/2312.08675v1
- Date: Thu, 14 Dec 2023 06:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 00:03:24.212504
- Title: AVA: Inconspicuous Attribute Variation-based Adversarial Attack
bypassing DeepFake Detection
- Title(参考訳): AVA:DeepFake検出を経由した非目立った属性変動に基づく対向攻撃
- Authors: Xiangtao Meng, Li Wang, Shanqing Guo, Lei Ju, Qingchuan Zhao
- Abstract要約: 近年、DeepFakeアプリケーションの人気が高まっているが、その悪用は深刻なプライバシーの脅威をもたらす。
乱用問題を緩和するための最も関連する検出アルゴリズムは、本質的に敵の攻撃に対して脆弱である。
我々は,ガウス先行識別器と意味識別器の組み合わせにより,潜在空間を乱す属性可変型対向攻撃 (AVA) を新たに同定した。
- 参考スコア(独自算出の注目度): 9.40828913999459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While DeepFake applications are becoming popular in recent years, their
abuses pose a serious privacy threat. Unfortunately, most related detection
algorithms to mitigate the abuse issues are inherently vulnerable to
adversarial attacks because they are built atop DNN-based classification
models, and the literature has demonstrated that they could be bypassed by
introducing pixel-level perturbations. Though corresponding mitigation has been
proposed, we have identified a new attribute-variation-based adversarial attack
(AVA) that perturbs the latent space via a combination of Gaussian prior and
semantic discriminator to bypass such mitigation. It perturbs the semantics in
the attribute space of DeepFake images, which are inconspicuous to human beings
(e.g., mouth open) but can result in substantial differences in DeepFake
detection. We evaluate our proposed AVA attack on nine state-of-the-art
DeepFake detection algorithms and applications. The empirical results
demonstrate that AVA attack defeats the state-of-the-art black box attacks
against DeepFake detectors and achieves more than a 95% success rate on two
commercial DeepFake detectors. Moreover, our human study indicates that
AVA-generated DeepFake images are often imperceptible to humans, which presents
huge security and privacy concerns.
- Abstract(参考訳): 近年、DeepFakeアプリケーションの人気が高まっているが、その悪用は深刻なプライバシーの脅威となる。
残念なことに、乱用問題を緩和するためのほとんどの関連する検出アルゴリズムは、DNNベースの分類モデル上に構築されているため、本質的には敵の攻撃に対して脆弱である。
対応する緩和法が提案されているが,ガウス前駆体とセマンティック判別器の組み合わせによって潜在空間を摂動する属性可変型対向攻撃 (AVA) を新たに発見した。
これはDeepFakeイメージの属性空間のセマンティクスを乱し、人間(例えば口を開ける)に不明瞭であるが、DeepFake検出にかなりの違いをもたらす可能性がある。
我々は9つの最先端のDeepFake検出アルゴリズムとアプリケーションに対するAVA攻撃の評価を行った。
実験の結果、AVA攻撃はDeepFake検出器に対する最先端のブラックボックス攻撃を破り、2つの商用DeepFake検出器で95%以上の成功率を達成した。
さらに、人間の研究では、AVA生成のDeepFake画像は人間には認識できないことが多いことが示されています。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Real is not True: Backdoor Attacks Against Deepfake Detection [9.572726483706846]
本稿では,Bad-Deepfake(Bad-Deepfake)と命名された先駆的パラダイムを導入する。
我々のアプローチはトレーニングデータのサブセットを戦略的に操作することで、トレーニングされたモデルの運用特性に対する不均等な影響を軽減します。
論文 参考訳(メタデータ) (2024-03-11T10:57:14Z) - GazeForensics: DeepFake Detection via Gaze-guided Spatial Inconsistency
Learning [63.547321642941974]
本稿では,3次元視線推定モデルから得られた視線表現を利用する,革新的なDeepFake検出手法であるGazeForensicsを紹介する。
実験の結果,提案したGazeForensicsは現在の最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-13T04:48:33Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models [0.5827521884806072]
我々は,最新の生成手法によって生成されたブラックボックス攻撃に対する単一イメージのディープフェイク検出器の脆弱性について検討した。
われわれの実験はFaceForensics++で行われている。
以上の結果から,ディープフェイクの再建過程において,1段階の偏微分拡散のみを用いることで,検出可能性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-11T15:57:51Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Making DeepFakes more spurious: evading deep face forgery detection via
trace removal attack [16.221725939480084]
本稿では,DeepFakeアンチ・フォレスト・フォレストに対する検出非依存的トレース除去攻撃について紹介する。
検出器側を調査する代わりに、私たちの攻撃はオリジナルのDeepFake生成パイプラインを調べます。
実験により、提案された攻撃は6つの最先端のDeepFake検出器の検出精度を著しく損なうことが示された。
論文 参考訳(メタデータ) (2022-03-22T03:13:33Z) - Adversarial Threats to DeepFake Detection: A Practical Perspective [12.611342984880826]
本稿では,最先端のDeepFake検出手法の脆弱性を実用的観点から検討する。
我々は、非常に現実的な攻撃シナリオを示すUniversal Adversarial Perturbationsを用いて、よりアクセスしやすい攻撃を作成する。
論文 参考訳(メタデータ) (2020-11-19T16:53:38Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。