論文の概要: Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2407.20836v1
- Date: Tue, 30 Jul 2024 14:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 17:00:05.486018
- Title: Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks
- Title(参考訳): AI生成画像検出における脆弱性 : 敵対的攻撃の課題
- Authors: Yunfeng Diao, Naixin Zhai, Changtao Miao, Xun Yang, Meng Wang,
- Abstract要約: ホワイトボックスおよびブラックボックス設定下での敵攻撃に対する最先端AIGI検出器の脆弱性について検討する。
まず、実画像と周波数領域の偽画像との明らかな違いに着想を得て、周波数領域の下に摂動を加え、元の周波数分布からイメージを遠ざける。
FPBAは、モデル、ジェネレータ、防御方法、さらにはクロスジェネレータ検出を回避して、ブラックボックス攻撃を成功させることができるからです。
- 参考スコア(独自算出の注目度): 17.87119255294563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in image synthesis, particularly with the advent of GAN and Diffusion models, have amplified public concerns regarding the dissemination of disinformation. To address such concerns, numerous AI-generated Image (AIGI) Detectors have been proposed and achieved promising performance in identifying fake images. However, there still lacks a systematic understanding of the adversarial robustness of these AIGI detectors. In this paper, we examine the vulnerability of state-of-the-art AIGI detectors against adversarial attack under white-box and black-box settings, which has been rarely investigated so far. For the task of AIGI detection, we propose a new attack containing two main parts. First, inspired by the obvious difference between real images and fake images in the frequency domain, we add perturbations under the frequency domain to push the image away from its original frequency distribution. Second, we explore the full posterior distribution of the surrogate model to further narrow this gap between heterogeneous models, e.g. transferring adversarial examples across CNNs and ViTs. This is achieved by introducing a novel post-train Bayesian strategy that turns a single surrogate into a Bayesian one, capable of simulating diverse victim models using one pre-trained surrogate, without the need for re-training. We name our method as frequency-based post-train Bayesian attack, or FPBA. Through FPBA, we show that adversarial attack is truly a real threat to AIGI detectors, because FPBA can deliver successful black-box attacks across models, generators, defense methods, and even evade cross-generator detection, which is a crucial real-world detection scenario.
- Abstract(参考訳): 画像合成の最近の進歩、特にGANと拡散モデルの出現は、情報の拡散に関する公衆の懸念を増幅している。
このような問題に対処するために、多数のAI生成画像検出器(AIGI)が提案され、偽画像の識別において有望な性能を達成した。
しかし、これらのAIGI検出器の敵対的堅牢性についての体系的な理解はいまだに欠けている。
本稿では,現状のAIGI検出器のホワイトボックスおよびブラックボックス設定による敵攻撃に対する脆弱性について検討する。
AIGI検出の課題として,2つの主要部分を含む新たな攻撃を提案する。
まず、実画像と周波数領域の偽画像との明らかな違いに着想を得て、周波数領域の下に摂動を加え、元の周波数分布からイメージを遠ざける。
第2に、代理モデルの完全な後部分布を探索し、異種モデル間のこのギャップをさらに狭め、例えば、CNNとViT間の逆例を転送する。
これは、1つのサロゲートをベイズ式に転換し、1つの事前訓練されたサロゲートを使用して、再訓練することなく、多様な犠牲者モデルをシミュレートできる新しいポストトレイン・ベイズ戦略を導入することで達成される。
我々は,この手法を周波数ベースのポストトレインベイズ攻撃(FPBA)と呼ぶ。
FPBAは、モデル、ジェネレータ、防御方法、さらにはクロスジェネレータ検出を回避できるため、AIGI検出器にとって真の脅威であることを示す。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Exploring the Adversarial Robustness of CLIP for AI-generated Image Detection [9.516391314161154]
比較言語-画像事前学習(CLIP)に基づく手法に着目し,AI生成画像検出器の対角的ロバスト性について検討した。
CLIPベースの検出器は、CNNベースの検出器と同様に、ホワイトボックス攻撃に対して脆弱である。
この分析は、より効果的な戦略を開発するのに役立つ法医学的検出器の特性に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-07-28T18:20:08Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation [0.4297070083645049]
GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
論文 参考訳(メタデータ) (2022-11-07T12:56:14Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。