論文の概要: Exploring Frequency Adversarial Attacks for Face Forgery Detection
- arxiv url: http://arxiv.org/abs/2203.15674v1
- Date: Tue, 29 Mar 2022 15:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:39:56.405515
- Title: Exploring Frequency Adversarial Attacks for Face Forgery Detection
- Title(参考訳): 顔偽造検出のための周波数対向攻撃の探索
- Authors: Shuai Jia, Chao Ma, Taiping Yao, Bangjie Yin, Shouhong Ding, Xiaokang
Yang
- Abstract要約: フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
- 参考スコア(独自算出の注目度): 59.10415109589605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various facial manipulation techniques have drawn serious public concerns in
morality, security, and privacy. Although existing face forgery classifiers
achieve promising performance on detecting fake images, these methods are
vulnerable to adversarial examples with injected imperceptible perturbations on
the pixels. Meanwhile, many face forgery detectors always utilize the frequency
diversity between real and fake faces as a crucial clue. In this paper, instead
of injecting adversarial perturbations into the spatial domain, we propose a
frequency adversarial attack method against face forgery detectors. Concretely,
we apply discrete cosine transform (DCT) on the input images and introduce a
fusion module to capture the salient region of adversary in the frequency
domain. Compared with existing adversarial attacks (e.g. FGSM, PGD) in the
spatial domain, our method is more imperceptible to human observers and does
not degrade the visual quality of the original images. Moreover, inspired by
the idea of meta-learning, we also propose a hybrid adversarial attack that
performs attacks in both the spatial and frequency domains. Extensive
experiments indicate that the proposed method fools not only the spatial-based
detectors but also the state-of-the-art frequency-based detectors effectively.
In addition, the proposed frequency attack enhances the transferability across
face forgery detectors as black-box attacks.
- Abstract(参考訳): 様々な顔操作技術は、道徳、セキュリティ、プライバシーに深刻な懸念を抱いている。
既存の顔偽造分類器は偽画像の検出において有望な性能を発揮するが、これらの手法はピクセルに不可避な摂動を注入する敵の例に対して脆弱である。
一方、多くの顔偽造検知器は、常に本物と偽の顔の周波数の多様性を重要な手がかりとして利用している。
本稿では,空間領域に逆方向の摂動を注入する代わりに,顔偽造検知器に対する周波数対向攻撃法を提案する。
具体的には、入力画像に離散コサイン変換(DCT)を適用し、周波数領域における敵の正反対領域を捕捉する融合モジュールを導入する。
空間領域における既存の敵攻撃 (FGSM, PGDなど) と比較すると, 本手法は人間の観察者には受容不能であり, 元の画像の視覚的品質を低下させるものではない。
さらに,メタラーニングの考え方に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
広範な実験により,提案手法は空間型検出器だけでなく,最先端の周波数系検出器を効果的に騙すことが示されている。
さらに,提案する周波数アタックは,ブラックボックスアタックとしてフェース偽造検出器間の転送性を高める。
関連論文リスト
- Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Attention Consistency Refined Masked Frequency Forgery Representation
for Generalizing Face Forgery Detection [96.539862328788]
既存の偽造検出方法は、未確認領域の真正性を決定する不満足な一般化能力に悩まされている。
ACMF(Attention Consistency Refined masked frequency forgery representation model)を提案する。
いくつかのパブリックフェイスフォージェリーデータセットの実験結果から,提案手法の性能は最先端の手法と比較して優れていることが示された。
論文 参考訳(メタデータ) (2023-07-21T08:58:49Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Misleading Deep-Fake Detection with GAN Fingerprints [14.459389888856412]
敵は、生成した画像の周波数スペクトルから直接、表現的アーティファクトであるGAN指紋を除去できることを示す。
以上の結果から,敵対者がしばしばGAN指紋を除去し,生成画像の検出を回避できることが示唆された。
論文 参考訳(メタデータ) (2022-05-25T07:32:12Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Imperceptible Adversarial Examples for Fake Image Detection [46.72602615209758]
本稿では,鍵画素を偽画像検出器に判定し,鍵画素のみを攻撃することにより,偽画像検出を妨害する手法を提案する。
3つの偽画像検出器を用いた2つの公開データセット実験により,提案手法は,ホワイトボックス攻撃とブラックボックス攻撃の両方において最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2021-06-03T06:25:04Z) - Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection [28.620523463372177]
GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:54:06Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。