論文の概要: Making GAN-Generated Images Difficult To Spot: A New Attack Against
Synthetic Image Detectors
- arxiv url: http://arxiv.org/abs/2104.12069v1
- Date: Sun, 25 Apr 2021 05:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 10:07:58.886204
- Title: Making GAN-Generated Images Difficult To Spot: A New Attack Against
Synthetic Image Detectors
- Title(参考訳): GAN生成画像の発見が難しい:合成画像検出機に対する新たな攻撃
- Authors: Xinwei Zhao, Matthew C. Stamm
- Abstract要約: 我々は,gan生成画像検出器を騙すことができる新たなアンチフォレンス攻撃を提案する。
我々の攻撃は 敵対的に訓練された 発生装置を使って 検出者が実際の画像と 関連づけた痕跡を 合成する
我々の攻撃は、7つの異なるGANを用いて合成画像で8つの最先端検出CNNを騙すことができることを示す。
- 参考スコア(独自算出の注目度): 24.809185168969066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visually realistic GAN-generated images have recently emerged as an important
misinformation threat. Research has shown that these synthetic images contain
forensic traces that are readily identifiable by forensic detectors.
Unfortunately, these detectors are built upon neural networks, which are
vulnerable to recently developed adversarial attacks. In this paper, we propose
a new anti-forensic attack capable of fooling GAN-generated image detectors.
Our attack uses an adversarially trained generator to synthesize traces that
these detectors associate with real images. Furthermore, we propose a technique
to train our attack so that it can achieve transferability, i.e. it can fool
unknown CNNs that it was not explicitly trained against. We demonstrate the
performance of our attack through an extensive set of experiments, where we
show that our attack can fool eight state-of-the-art detection CNNs with
synthetic images created using seven different GANs.
- Abstract(参考訳): 視覚的にリアルなGAN生成画像は、最近重要な誤報の脅威として現れた。
これらの合成画像は、鑑識検出器によって容易に識別できる法医学的痕跡を含んでいることが研究によって示されている。
残念なことに、これらの検出器はニューラルネットワーク上に構築されている。
本稿では,gan生成画像検出器を騙すことができる新たなアンチフォレンス攻撃を提案する。
我々の攻撃は 敵対的に訓練された 発生装置を使って 検出者が実際の画像と 関連づけた痕跡を 合成する
さらに,移動性を実現するために,攻撃を訓練する手法を提案する。
未知のCNNが明示的にトレーニングされていないことを騙すことができる。
そこで,我々は7種類のganを用いた合成画像を用いて8種類の最先端検出cnnを騙すことができることを示す実験を行った。
関連論文リスト
- Fake It Until You Break It: On the Adversarial Robustness of AI-generated Image Detectors [14.284639462471274]
我々は,攻撃シナリオの異なるAIGI検出器の評価を行った。
攻撃によって検出精度が大幅に低下し、検知器に依存するリスクがその利点を上回る程度に低下する可能性がある。
本稿では,これらの攻撃に対して,CLIPをベースとした簡易な防御機構を提案する。
論文 参考訳(メタデータ) (2024-10-02T14:11:29Z) - Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks [17.87119255294563]
ホワイトボックスおよびブラックボックス設定下での敵攻撃に対する最先端AIGI検出器の脆弱性について検討する。
まず、実画像と周波数領域の偽画像との明らかな違いに着想を得て、周波数領域の下に摂動を加え、元の周波数分布からイメージを遠ざける。
FPBAは、モデル、ジェネレータ、防御方法、さらにはクロスジェネレータ検出を回避して、ブラックボックス攻撃を成功させることができるからです。
論文 参考訳(メタデータ) (2024-07-30T14:07:17Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Attacking Image Splicing Detection and Localization Algorithms Using
Synthetic Traces [17.408491376238008]
近年のディープラーニングの進歩により、法医学研究者は画像スプライシング検出とローカライズアルゴリズムの新しいクラスを開発することができた。
これらのアルゴリズムは、シームズニューラルネットワークを用いて、法医学的トレースの局所的不整合を検出することによって、スプライシング内容を特定する。
本稿では,最先端のスプライシング検出とローカライズアルゴリズムを騙し得る新しいGANベースの反法医学的攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-22T15:07:16Z) - Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation [0.4297070083645049]
GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
論文 参考訳(メタデータ) (2022-11-07T12:56:14Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - A Transferable Anti-Forensic Attack on Forensic CNNs Using A Generative
Adversarial Network [24.032025811564814]
畳み込みニューラルネットワーク(CNN)はマルチメディア法医学で広く使われている。
これらのCNNベースのフォレンジックアルゴリズムをだますために、反フォレンジック攻撃が開発されている。
様々な操作操作で残されている法医学的痕跡を除去する新しい対法医学的攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-23T19:31:59Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。