論文の概要: Exploring Frequency Adversarial Attacks for Face Forgery Detection
- arxiv url: http://arxiv.org/abs/2203.15674v1
- Date: Tue, 29 Mar 2022 15:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:39:56.405515
- Title: Exploring Frequency Adversarial Attacks for Face Forgery Detection
- Title(参考訳): 顔偽造検出のための周波数対向攻撃の探索
- Authors: Shuai Jia, Chao Ma, Taiping Yao, Bangjie Yin, Shouhong Ding, Xiaokang
Yang
- Abstract要約: フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
- 参考スコア(独自算出の注目度): 59.10415109589605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various facial manipulation techniques have drawn serious public concerns in
morality, security, and privacy. Although existing face forgery classifiers
achieve promising performance on detecting fake images, these methods are
vulnerable to adversarial examples with injected imperceptible perturbations on
the pixels. Meanwhile, many face forgery detectors always utilize the frequency
diversity between real and fake faces as a crucial clue. In this paper, instead
of injecting adversarial perturbations into the spatial domain, we propose a
frequency adversarial attack method against face forgery detectors. Concretely,
we apply discrete cosine transform (DCT) on the input images and introduce a
fusion module to capture the salient region of adversary in the frequency
domain. Compared with existing adversarial attacks (e.g. FGSM, PGD) in the
spatial domain, our method is more imperceptible to human observers and does
not degrade the visual quality of the original images. Moreover, inspired by
the idea of meta-learning, we also propose a hybrid adversarial attack that
performs attacks in both the spatial and frequency domains. Extensive
experiments indicate that the proposed method fools not only the spatial-based
detectors but also the state-of-the-art frequency-based detectors effectively.
In addition, the proposed frequency attack enhances the transferability across
face forgery detectors as black-box attacks.
- Abstract(参考訳): 様々な顔操作技術は、道徳、セキュリティ、プライバシーに深刻な懸念を抱いている。
既存の顔偽造分類器は偽画像の検出において有望な性能を発揮するが、これらの手法はピクセルに不可避な摂動を注入する敵の例に対して脆弱である。
一方、多くの顔偽造検知器は、常に本物と偽の顔の周波数の多様性を重要な手がかりとして利用している。
本稿では,空間領域に逆方向の摂動を注入する代わりに,顔偽造検知器に対する周波数対向攻撃法を提案する。
具体的には、入力画像に離散コサイン変換(DCT)を適用し、周波数領域における敵の正反対領域を捕捉する融合モジュールを導入する。
空間領域における既存の敵攻撃 (FGSM, PGDなど) と比較すると, 本手法は人間の観察者には受容不能であり, 元の画像の視覚的品質を低下させるものではない。
さらに,メタラーニングの考え方に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
広範な実験により,提案手法は空間型検出器だけでなく,最先端の周波数系検出器を効果的に騙すことが示されている。
さらに,提案する周波数アタックは,ブラックボックスアタックとしてフェース偽造検出器間の転送性を高める。
関連論文リスト
- Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks [17.87119255294563]
ホワイトボックスおよびブラックボックス設定下での敵攻撃に対する最先端AIGI検出器の脆弱性について検討する。
まず、実画像と周波数領域の偽画像との明らかな違いに着想を得て、周波数領域の下に摂動を加え、元の周波数分布からイメージを遠ざける。
FPBAは、モデル、ジェネレータ、防御方法、さらにはクロスジェネレータ検出を回避して、ブラックボックス攻撃を成功させることができるからです。
論文 参考訳(メタデータ) (2024-07-30T14:07:17Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Attention Consistency Refined Masked Frequency Forgery Representation
for Generalizing Face Forgery Detection [96.539862328788]
既存の偽造検出方法は、未確認領域の真正性を決定する不満足な一般化能力に悩まされている。
ACMF(Attention Consistency Refined masked frequency forgery representation model)を提案する。
いくつかのパブリックフェイスフォージェリーデータセットの実験結果から,提案手法の性能は最先端の手法と比較して優れていることが示された。
論文 参考訳(メタデータ) (2023-07-21T08:58:49Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Misleading Deep-Fake Detection with GAN Fingerprints [14.459389888856412]
敵は、生成した画像の周波数スペクトルから直接、表現的アーティファクトであるGAN指紋を除去できることを示す。
以上の結果から,敵対者がしばしばGAN指紋を除去し,生成画像の検出を回避できることが示唆された。
論文 参考訳(メタデータ) (2022-05-25T07:32:12Z) - Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection [28.620523463372177]
GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:54:06Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。