論文の概要: Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation
- arxiv url: http://arxiv.org/abs/2211.03509v1
- Date: Mon, 7 Nov 2022 12:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:31:52.634488
- Title: Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation
- Title(参考訳): コントラスト摂動を伴うgan生成画像検出器に対するブラックボックス攻撃
- Authors: Zijie Lou, Gang Cao, Man Lin
- Abstract要約: GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
- 参考スコア(独自算出の注目度): 0.4297070083645049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visually realistic GAN-generated facial images raise obvious concerns on
potential misuse. Many effective forensic algorithms have been developed to
detect such synthetic images in recent years. It is significant to assess the
vulnerability of such forensic detectors against adversarial attacks. In this
paper, we propose a new black-box attack method against GAN-generated image
detectors. A novel contrastive learning strategy is adopted to train the
encoder-decoder network based anti-forensic model under a contrastive loss
function. GAN images and their simulated real counterparts are constructed as
positive and negative samples, respectively. Leveraging on the trained attack
model, imperceptible contrastive perturbation could be applied to input
synthetic images for removing GAN fingerprint to some extent. As such, existing
GAN-generated image detectors are expected to be deceived. Extensive
experimental results verify that the proposed attack effectively reduces the
accuracy of three state-of-the-art detectors on six popular GANs. High visual
quality of the attacked images is also achieved. The source code will be
available at https://github.com/ZXMMD/BAttGAND.
- Abstract(参考訳): 視覚的なgan生成顔画像は、潜在的な誤用に対する明らかな懸念を引き起こす。
近年,このような合成画像を検出するために多くの有効な法医学アルゴリズムが開発されている。
敵攻撃に対する法医学的検知器の脆弱性を評価することは重要である。
本稿では,GAN生成画像検出器に対するブラックボックス攻撃法を提案する。
対照的な損失関数の下で,エンコーダ・デコーダネットワークに基づく反法学モデルをトレーニングするために,新しいコントラスト学習戦略を採用する。
GAN画像とシミュレーションされた実画像はそれぞれ正と負のサンプルとして構成される。
訓練されたアタックモデルを利用することで,gan指紋をある程度除去するための合成画像入力に不可避なコントラスト摂動を適用することができた。
そのため、既存のGAN生成画像検出器は騙されることが期待される。
大規模な実験結果から,提案した攻撃により,6種類のGANの3つの最先端検出器の精度が効果的に低下することが確認された。
攻撃された画像の高画質も達成される。
ソースコードはhttps://github.com/ZXMMD/BAttGANDで入手できる。
関連論文リスト
- Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks [17.87119255294563]
ホワイトボックスおよびブラックボックス設定下での敵攻撃に対する最先端AIGI検出器の脆弱性について検討する。
まず、実画像と周波数領域の偽画像との明らかな違いに着想を得て、周波数領域の下に摂動を加え、元の周波数分布からイメージを遠ざける。
FPBAは、モデル、ジェネレータ、防御方法、さらにはクロスジェネレータ検出を回避して、ブラックボックス攻撃を成功させることができるからです。
論文 参考訳(メタデータ) (2024-07-30T14:07:17Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Attacking Image Splicing Detection and Localization Algorithms Using
Synthetic Traces [17.408491376238008]
近年のディープラーニングの進歩により、法医学研究者は画像スプライシング検出とローカライズアルゴリズムの新しいクラスを開発することができた。
これらのアルゴリズムは、シームズニューラルネットワークを用いて、法医学的トレースの局所的不整合を検出することによって、スプライシング内容を特定する。
本稿では,最先端のスプライシング検出とローカライズアルゴリズムを騙し得る新しいGANベースの反法医学的攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-22T15:07:16Z) - Misleading Deep-Fake Detection with GAN Fingerprints [14.459389888856412]
敵は、生成した画像の周波数スペクトルから直接、表現的アーティファクトであるGAN指紋を除去できることを示す。
以上の結果から,敵対者がしばしばGAN指紋を除去し,生成画像の検出を回避できることが示唆された。
論文 参考訳(メタデータ) (2022-05-25T07:32:12Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Making GAN-Generated Images Difficult To Spot: A New Attack Against
Synthetic Image Detectors [24.809185168969066]
我々は,gan生成画像検出器を騙すことができる新たなアンチフォレンス攻撃を提案する。
我々の攻撃は 敵対的に訓練された 発生装置を使って 検出者が実際の画像と 関連づけた痕跡を 合成する
我々の攻撃は、7つの異なるGANを用いて合成画像で8つの最先端検出CNNを騙すことができることを示す。
論文 参考訳(メタデータ) (2021-04-25T05:56:57Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Exploring Adversarial Fake Images on Face Manifold [5.26916168336451]
強力な生成敵対ネットワーク(GAN)ベースの方法によって合成された画像は、道徳的およびプライバシー上の懸念を引き起こしている。
本稿では, 対向雑音を付加する代わりに, 顔多様体上の対向点を最適に探索し, 反forensic fake face imageを生成する。
論文 参考訳(メタデータ) (2021-01-09T02:08:59Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。