論文の概要: Universal Anti-forensics Attack against Image Forgery Detection via Multi-modal Guidance
- arxiv url: http://arxiv.org/abs/2602.06530v1
- Date: Fri, 06 Feb 2026 09:32:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.316046
- Title: Universal Anti-forensics Attack against Image Forgery Detection via Multi-modal Guidance
- Title(参考訳): マルチモーダル誘導による画像偽造検出に対するユニバーサル法医学的攻撃
- Authors: Haipeng Li, Rongxuan Peng, Anwei Luo, Shunquan Tan, Changsheng Chen, Anastasia Antsiferova,
- Abstract要約: ForgeryEraserは、ターゲットのAIGC検出器にアクセスすることなく、普遍的な反法医学攻撃を実行するように設計されたフレームワークである。
ForgeryEraserは、グローバルな合成と局所的な編集ベンチマークにおいて、高度なAIGC検出器に大幅な性能劣化を引き起こすことを示す。
- 参考スコア(独自算出の注目度): 22.94094331220455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of AI-Generated Content (AIGC) technologies poses significant challenges for authenticity assessment. However, existing evaluation protocols largely overlook anti-forensics attack, failing to ensure the comprehensive robustness of state-of-the-art AIGC detectors in real-world applications. To bridge this gap, we propose ForgeryEraser, a framework designed to execute universal anti-forensics attack without access to the target AIGC detectors. We reveal an adversarial vulnerability stemming from the systemic reliance on Vision-Language Models (VLMs) as shared backbones (e.g., CLIP), where downstream AIGC detectors inherit the feature space of these publicly accessible models. Instead of traditional logit-based optimization, we design a multi-modal guidance loss to drive forged image embeddings within the VLM feature space toward text-derived authentic anchors to erase forgery traces, while repelling them from forgery anchors. Extensive experiments demonstrate that ForgeryEraser causes substantial performance degradation to advanced AIGC detectors on both global synthesis and local editing benchmarks. Moreover, ForgeryEraser induces explainable forensic models to generate explanations consistent with authentic images for forged images. Our code will be made publicly available.
- Abstract(参考訳): AIGC(AI-Generated Content)技術の急速な進歩は、信頼性評価に重大な課題をもたらす。
しかし、既存の評価プロトコルは反法医学的攻撃を概ね見落としており、現実の応用において最先端のAIGC検出器の包括的な堅牢性を保証するには至らなかった。
このギャップを埋めるために、ターゲットAIGC検出器にアクセスすることなく、汎用的な反法医学攻撃を実行するように設計されたフレームワークであるForgeryEraserを提案する。
本稿では,VLM(Vision-Language Models)のシステム的依存から生じる敵対的脆弱性を共有バックボーン(例えばCLIP)として明らかにし,下流のAIGC検出器がこれらの公開モデルの特徴空間を継承する。
従来のロジットに基づく最適化の代わりに,VLM機能空間内の偽画像埋め込みをテキスト由来の認証アンカーに誘導するマルチモーダル誘導損失を設計し,偽画像のトレースを消去し,偽画像アンカーから排除する。
大規模な実験により、ForgeryEraserは、グローバル合成と局所編集ベンチマークの両方において、高度なAIGC検出器に大幅な性能劣化を引き起こすことが示された。
さらに、ForgeryEraserは説明可能な法医学モデルを誘導し、偽画像の認証画像と整合した説明を生成する。
私たちのコードは公開されます。
関連論文リスト
- SSVP: Synergistic Semantic-Visual Prompting for Industrial Zero-Shot Anomaly Detection [55.54007781679915]
本稿では,多種多様な視覚的エンコーディングを効率よく融合させ,モデルの微粒化知覚を高めるSynergistic Semantic-Visual Prompting (SSVP)を提案する。
SSVPは、MVTec-AD上で93.0%のImage-AUROCと92.2%のPixel-AUROCで最先端のパフォーマンスを達成し、既存のゼロショットアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2026-01-14T04:42:19Z) - Semantic Visual Anomaly Detection and Reasoning in AI-Generated Images [96.43608872116347]
AnomReasonは4倍のtextbfAnomAgentのような構造化アノテーションを備えた大規模ベンチマーク
AnomReasonとAnomAgentは、AI生成画像の意味的妥当性の測定と改善の基盤となっている。
論文 参考訳(メタデータ) (2025-10-11T14:09:24Z) - MirGuard: Towards a Robust Provenance-based Intrusion Detection System Against Graph Manipulation Attacks [13.92935628832727]
MirGuardは、ロジック対応のマルチビュー拡張とコントラスト表現学習を組み合わせた異常検出フレームワークである。
MirGuardは、さまざまなグラフ操作攻撃に対して、最先端の検出器の堅牢性を大幅に上回っている。
論文 参考訳(メタデータ) (2025-08-14T13:35:51Z) - ForensicsSAM: Toward Robust and Unified Image Forgery Detection and Localization Resisting to Adversarial Attack [56.0056378072843]
高い転送性を持つ逆画像は上流モデルでのみ作成可能であることを示す。
本稿では,IFDLフレームワークを組み込んだForensicsSAMを提案する。
論文 参考訳(メタデータ) (2025-08-10T16:03:44Z) - Transferable Adversarial Attacks on Black-Box Vision-Language Models [63.22532779621001]
敵対的攻撃は、テキストのみのコンテキストとビジョンのみのコンテキストにおいて、オープンソースからプロプライエタリなブラックボックスモデルに移行することができる。
攻撃者は、特定の攻撃者による視覚情報の解釈を誘導するために、摂動を作れます。
普遍的な摂動 -- 広い範囲のイメージに適用可能な修正 -- は、これらの誤解釈を一貫して引き起こすことを発見した。
論文 参考訳(メタデータ) (2025-05-02T06:51:11Z) - Adversarial Robustness of AI-Generated Image Detectors in the Real World [13.52355280061187]
現状の最先端分類器は,実環境下での敵例に対して脆弱であることを示す。
ほとんどの攻撃は、例えばソーシャルメディアプラットフォームへのアップロード中に画像が劣化しても有効である。
ケーススタディでは、HIVEに対してブラックボックス攻撃を行うことにより、これらの堅牢性の課題が商用ツールにも見られることを示した。
論文 参考訳(メタデータ) (2024-10-02T14:11:29Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。