論文の概要: FBA$^2$D: Frequency-based Black-box Attack for AI-generated Image Detection
- arxiv url: http://arxiv.org/abs/2512.09264v1
- Date: Wed, 10 Dec 2025 02:38:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.371422
- Title: FBA$^2$D: Frequency-based Black-box Attack for AI-generated Image Detection
- Title(参考訳): FBA$2$D:AI生成画像検出のための周波数ベースブラックボックスアタック
- Authors: Xiaojing Chen, Dan Li, Lijun Peng, Jun YanŁetter, Zhiqing Guo, Junyang Chen, Xiao Lan, Zhongjie Ba, Yunfeng DiaoŁetter,
- Abstract要約: AIGC検出器に対する決定に基づく攻撃は未解明のままである。
我々は,AIGC検出のための周波数ベースのブラックボックス攻撃法である textbfFBA$2$D を提案する。
- 参考スコア(独自算出の注目度): 19.728171671281928
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The prosperous development of Artificial Intelligence-Generated Content (AIGC) has brought people's anxiety about the spread of false information on social media. Designing detectors for filtering is an effective defense method, but most detectors will be compromised by adversarial samples. Currently, most studies exposing AIGC security issues assume information on model structure and data distribution. In real applications, attackers query and interfere with models that provide services in the form of application programming interfaces (APIs), which constitutes the black-box decision-based attack paradigm. However, to the best of our knowledge, decision-based attacks on AIGC detectors remain unexplored. In this study, we propose \textbf{FBA$^2$D}: a frequency-based black-box attack method for AIGC detection to fill the research gap. Motivated by frequency-domain discrepancies between generated and real images, we develop a decision-based attack that leverages the Discrete Cosine Transform (DCT) for fine-grained spectral partitioning and selects frequency bands as query subspaces, improving both query efficiency and image quality. Moreover, attacks on AIGC detectors should mitigate initialization failures, preserve image quality, and operate under strict query budgets. To address these issues, we adopt an ``adversarial example soup'' method, averaging candidates from successive surrogate iterations and using the result as the initialization to accelerate the query-based attack. The empirical study on the Synthetic LSUN dataset and GenImage dataset demonstrate the effectiveness of our prosed method. This study shows the urgency of addressing practical AIGC security problems.
- Abstract(参考訳): 人工知能生成コンテンツ(AIGC)の発達により、ソーシャルメディア上での偽情報の拡散に対する人々の不安が高まっている。
フィルタリングのための検出器の設計は効果的な防御方法であるが、ほとんどの検出器は敵のサンプルによって妥協される。
現在、AIGCセキュリティ問題を公開するほとんどの研究は、モデル構造とデータ分散に関する情報を前提としている。
実際のアプリケーションでは、攻撃者はブラックボックス決定に基づく攻撃パラダイムを構成するアプリケーションプログラミングインターフェース(API)の形式でサービスを提供するモデルに問い合わせ、干渉します。
しかし、私たちの知る限りでは、AIGC検出器に対する決定に基づく攻撃は未解明のままである。
本研究では,AIGC検出のための周波数ベースのブラックボックス攻撃手法であるtextbf{FBA$^2$D}を提案する。
生成画像と実画像間の周波数領域の相違を動機として,離散コサイン変換(DCT)を用いて細粒度分割を行い,周波数帯域を問合せ部分空間として選択し,クエリ効率と画像品質を両立させる決定ベースアタックを開発した。
さらに、AIGC検出器に対する攻撃は、初期化失敗を軽減し、画像の品質を保ち、厳格なクエリ予算の下で運用する必要がある。
これらの問題に対処するために、'adversarial example soup''メソッドを採用し、連続したサロゲート反復から候補を平均化し、結果を初期化として使用してクエリベースの攻撃を加速する。
The empirical study on the Synthetic LSUN dataset and GenImage dataset showed the effective of our prosed method。
本研究では,実際のAIGCセキュリティ問題に対処する上での緊急性を示す。
関連論文リスト
- RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks [39.524974831780874]
FPBAはブラックボックス攻撃を成功させることができるので、敵攻撃はAIGI検出器にとって真の脅威であることを示す。
我々はこの手法を周波数ベースのポストトレインベイズアタック (FPBA) と呼ぶ。
論文 参考訳(メタデータ) (2024-07-30T14:07:17Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。