論文の概要: Imperceptible Adversarial Examples for Fake Image Detection
- arxiv url: http://arxiv.org/abs/2106.01615v1
- Date: Thu, 3 Jun 2021 06:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 12:21:55.325314
- Title: Imperceptible Adversarial Examples for Fake Image Detection
- Title(参考訳): 偽画像検出における不可避逆例
- Authors: Quanyu Liao, Yuezun Li, Xin Wang, Bin Kong, Bin Zhu, Siwei Lyu,
Youbing Yin, Qi Song, Xi Wu
- Abstract要約: 本稿では,鍵画素を偽画像検出器に判定し,鍵画素のみを攻撃することにより,偽画像検出を妨害する手法を提案する。
3つの偽画像検出器を用いた2つの公開データセット実験により,提案手法は,ホワイトボックス攻撃とブラックボックス攻撃の両方において最先端の性能を達成することを示す。
- 参考スコア(独自算出の注目度): 46.72602615209758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fooling people with highly realistic fake images generated with Deepfake or
GANs brings a great social disturbance to our society. Many methods have been
proposed to detect fake images, but they are vulnerable to adversarial
perturbations -- intentionally designed noises that can lead to the wrong
prediction. Existing methods of attacking fake image detectors usually generate
adversarial perturbations to perturb almost the entire image. This is redundant
and increases the perceptibility of perturbations. In this paper, we propose a
novel method to disrupt the fake image detection by determining key pixels to a
fake image detector and attacking only the key pixels, which results in the
$L_0$ and the $L_2$ norms of adversarial perturbations much less than those of
existing works. Experiments on two public datasets with three fake image
detectors indicate that our proposed method achieves state-of-the-art
performance in both white-box and black-box attacks.
- Abstract(参考訳): ディープフェイクやガンで生成された、非常に現実的な偽画像で人々を騙すことは、社会に大きな社会的混乱をもたらします。
偽画像を検出するための多くの方法が提案されているが、敵の摂動に弱いため、意図的に設計されたノイズが誤った予測に繋がる可能性がある。
既存の偽画像検出器の攻撃方法は、通常、ほぼ全画像が摂動する敵の摂動を発生させる。
これは冗長であり、摂動の受容性を高める。
本稿では,鍵画素を偽画像検出器に判定し,鍵画素のみを攻撃することにより,対向的摂動の規範である$L_0$と$L_2$を従来よりもはるかに小さくすることで,偽画像検出を妨害する手法を提案する。
3つの偽画像検出器を用いた2つの公開データセット実験により,提案手法は,ホワイトボックス攻撃とブラックボックス攻撃の両方において最先端の性能を達成することを示す。
関連論文リスト
- Adversarial Magnification to Deceive Deepfake Detection through Super Resolution [9.372782789857803]
本稿では, 深度検出における対角攻撃の可能性として, 超解像法の適用について検討する。
画像の視覚的外観におけるこれらの手法による最小限の変化は、ディープフェイク検出システムの性能に大きな影響を及ぼすことを示す。
そこで我々は,超解像を高速かつブラックボックスとして,偽画像のキャモフラージュやプリスタン画像の偽アラーム生成に有効な手法として,新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2024-07-02T21:17:36Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation [0.4297070083645049]
GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
論文 参考訳(メタデータ) (2022-11-07T12:56:14Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Exploring Adversarial Fake Images on Face Manifold [5.26916168336451]
強力な生成敵対ネットワーク(GAN)ベースの方法によって合成された画像は、道徳的およびプライバシー上の懸念を引き起こしている。
本稿では, 対向雑音を付加する代わりに, 顔多様体上の対向点を最適に探索し, 反forensic fake face imageを生成する。
論文 参考訳(メタデータ) (2021-01-09T02:08:59Z) - Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection [28.620523463372177]
GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:54:06Z) - What makes fake images detectable? Understanding properties that
generalize [55.4211069143719]
深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
論文 参考訳(メタデータ) (2020-08-24T17:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。