論文の概要: Take Fake as Real: Realistic-like Robust Black-box Adversarial Attack to Evade AIGC Detection
- arxiv url: http://arxiv.org/abs/2412.06727v2
- Date: Mon, 16 Dec 2024 11:28:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:50:07.316161
- Title: Take Fake as Real: Realistic-like Robust Black-box Adversarial Attack to Evade AIGC Detection
- Title(参考訳): AIGC検出を悪用する現実的なブラックボックス攻撃
- Authors: Caiyun Xie, Dengpan Ye, Yunming Zhang, Long Tang, Yunna Lv, Jiacheng Deng, Jiawei Song,
- Abstract要約: 本稿では,後処理の融合最適化を用いた現実的なロバストブラックボックス攻撃(R$2$BA)を提案する。
R$2$BAは優れた抗検出性能,可視性,GANおよび拡散型症例の強い堅牢性を示す。
- 参考スコア(独自算出の注目度): 4.269334070603315
- License:
- Abstract: The security of AI-generated content (AIGC) detection is crucial for ensuring multimedia content credibility. To enhance detector security, research on adversarial attacks has become essential. However, most existing adversarial attacks focus only on GAN-generated facial images detection, struggle to be effective on multi-class natural images and diffusion-based detectors, and exhibit poor invisibility. To fill this gap, we first conduct an in-depth analysis of the vulnerability of AIGC detectors and discover the feature that detectors vary in vulnerability to different post-processing. Then, considering that the detector is agnostic in real-world scenarios and given this discovery, we propose a Realistic-like Robust Black-box Adversarial attack (R$^2$BA) with post-processing fusion optimization. Unlike typical perturbations, R$^2$BA uses real-world post-processing, i.e., Gaussian blur, JPEG compression, Gaussian noise and light spot to generate adversarial examples. Specifically, we use a stochastic particle swarm algorithm with inertia decay to optimize post-processing fusion intensity and explore the detector's decision boundary. Guided by the detector's fake probability, R$^2$BA enhances/weakens the detector-vulnerable/detector-robust post-processing intensity to strike a balance between adversariality and invisibility. Extensive experiments on popular/commercial AIGC detectors and datasets demonstrate that R$^2$BA exhibits impressive anti-detection performance, excellent invisibility, and strong robustness in GAN-based and diffusion-based cases. Compared to state-of-the-art white-box and black-box attacks, R$^2$BA shows significant improvements of 15\%--72\% and 21\%--47\% in anti-detection performance under the original and robust scenario respectively, offering valuable insights for the security of AIGC detection in real-world applications.
- Abstract(参考訳): AI生成コンテンツ(AIGC)検出のセキュリティは、マルチメディアコンテンツの信頼性を確保するために不可欠である。
検出器の安全性を高めるために、敵攻撃の研究が不可欠になっている。
しかし、既存のほとんどの敵攻撃は、GAN生成した顔画像検出にのみ焦点をあてており、マルチクラスの自然画像や拡散ベースの検出器に効果的であるのに苦慮しており、視認性に乏しい。
このギャップを埋めるために、我々はまずAIGC検出器の脆弱性の詳細な分析を行い、検出者が異なる後処理に脆弱性が異なる特徴を発見する。
そこで本研究では,実世界のシナリオにおいて検出器が非依存であることを考慮し,この発見を前提として,後処理の融合最適化を伴う実効的なロバスト・ブラックボックス・アタック(R$^2$BA)を提案する。
典型的な摂動とは異なり、R$^2$BAは現実世界のポストプロセッシング、すなわちガウスのぼかし、JPEG圧縮、ガウスのノイズと光スポットを使って敵の例を生成する。
具体的には、慣性崩壊を伴う確率的粒子群アルゴリズムを用いて、後処理の核融合強度を最適化し、検出器の決定境界を探索する。
検出器の偽の確率に導かれ、R$^2$BAは検出器・加重/検出器・ローバスト後処理強度を増強/弱め、対向性と可視性のバランスをとる。
一般/商用AIGC検出器とデータセットの大規模な実験により、R$^2$BAは優れた抗検出性能、優れた可視性、GANおよび拡散に基づく強い堅牢性を示すことが示された。
最先端のホワイトボックスとブラックボックスの攻撃と比較して、R$^2$BAは、元のシナリオと堅牢なシナリオでそれぞれ15\%--72\%と21\%--47\%の大幅な改善を示し、現実のアプリケーションにおけるAIGC検出のセキュリティに関する貴重な洞察を提供する。
関連論文リスト
- StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks [17.87119255294563]
ホワイトボックスおよびブラックボックス設定下での敵攻撃に対する最先端AIGI検出器の脆弱性について検討する。
まず、実画像と周波数領域の偽画像との明らかな違いに着想を得て、周波数領域の下に摂動を加え、元の周波数分布からイメージを遠ざける。
FPBAは、モデル、ジェネレータ、防御方法、さらにはクロスジェネレータ検出を回避して、ブラックボックス攻撃を成功させることができるからです。
論文 参考訳(メタデータ) (2024-07-30T14:07:17Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Two-stage optimized unified adversarial patch for attacking
visible-infrared cross-modal detectors in the physical world [0.0]
本研究は、現実のブラックボックス設定において、可視赤外線クロスモーダル検出器に対する攻撃を実行するために設計された2段階最適化一元対向パッチ(TOUAP)を導入する。
論文 参考訳(メタデータ) (2023-12-04T10:25:34Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing [5.675436513661266]
クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
論文 参考訳(メタデータ) (2022-02-16T00:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。