論文の概要: Frequency Bias Matters: Diving into Robust and Generalized Deep Image Forgery Detection
- arxiv url: http://arxiv.org/abs/2511.19886v1
- Date: Tue, 25 Nov 2025 03:45:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.260359
- Title: Frequency Bias Matters: Diving into Robust and Generalized Deep Image Forgery Detection
- Title(参考訳): 周波数バイアス:ロバストと一般化された深部画像偽造検出に潜む
- Authors: Chi Liu, Tianqing Zhu, Wanlei Zhou, Wei Zhao,
- Abstract要約: 一般化性と堅牢性は、偽造検知器の2つの重要な問題である。
実画像と偽画像の周波数差を除去する2段階の周波数アライメント手法を提案する。
- 参考スコア(独自算出の注目度): 25.546882596181337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep image forgery powered by AI generative models, such as GANs, continues to challenge today's digital world, detecting AI-generated forgeries has become a vital security topic. Generalizability and robustness are two critical concerns of a forgery detector, determining its reliability when facing unknown GANs and noisy samples in an open world. Although many studies focus on improving these two properties, the root causes of these problems have not been fully explored, and it is unclear if there is a connection between them. Moreover, despite recent achievements in addressing these issues from image forensic or anti-forensic aspects, a universal method that can contribute to both sides simultaneously remains practically significant yet unavailable. In this paper, we provide a fundamental explanation of these problems from a frequency perspective. Our analysis reveals that the frequency bias of a DNN forgery detector is a possible cause of generalization and robustness issues. Based on this finding, we propose a two-step frequency alignment method to remove the frequency discrepancy between real and fake images, offering double-sided benefits: it can serve as a strong black-box attack against forgery detectors in the anti-forensic context or, conversely, as a universal defense to improve detector reliability in the forensic context. We also develop corresponding attack and defense implementations and demonstrate their effectiveness, as well as the effect of the frequency alignment method, in various experimental settings involving twelve detectors, eight forgery models, and five metrics.
- Abstract(参考訳): GANのようなAI生成モデルを利用したディープイメージ偽造は、今日のデジタル世界への挑戦を続けており、AI生成の偽造の検出は重要なセキュリティトピックとなっている。
一般化可能性と堅牢性は偽造検知器の2つの重要な関心事であり、未知のGANと公の世界でノイズのあるサンプルに直面する際にその信頼性を決定する。
多くの研究はこれらの2つの特性の改善に焦点をあてているが、これらの問題の根本原因は十分に解明されておらず、それらの間に関係があるかどうかは不明である。
さらに、画像の法医学的側面や反法学的な側面からこれらの問題に対処する上での最近の成果にもかかわらず、両面に同時に貢献できる普遍的手法は、実用的には有意義であり、利用できないままである。
本稿では,周波数の観点から,これらの問題の基本的説明を行う。
解析の結果,DNNフォージェリ検出器の周波数バイアスが一般化とロバスト性の問題の原因となる可能性が示唆された。
そこで本研究では,実画像と偽画像の周波数差を除去する2段階の周波数アライメント手法を提案し,両面の利点として,反法医学的文脈における偽画像検出者に対する強力なブラックボックス攻撃や,逆に法医学的文脈における検出信頼性向上のためのユニバーサルディフェンスとして機能する。
また,12個の検出器,8個のフォージェリモデル,および5つのメトリクスを含む様々な実験環境において,対応する攻撃・防御実装を開発し,その効果と周波数アライメント法の効果を実証した。
関連論文リスト
- Transferable Dual-Domain Feature Importance Attack against AI-Generated Image Detector [32.543253278021446]
最近のAI生成画像検出器(AIGI)は、クリーンな条件下で印象的な精度を達成している。
このような検出器の安全性を評価するための高度な敵攻撃を開発することは重要である。
本稿では,AIGI検出器をある程度無効化するためのDual-Domain Feature Importance Attackスキームを提案する。
論文 参考訳(メタデータ) (2025-11-19T16:03:15Z) - Adversarially Robust AI-Generated Image Detection for Free: An Information Theoretic Perspective [22.514709685678813]
我々は,AIGI検出において,対戦訓練(AT)がパフォーマンスの低下に悩まされていることを示す。
この差に触発されて,情報理論による無トレーニングロバスト検出(TRIM)を提案する。
TRIMは標準検出器上に構築され、予測エントロピーとKL分散を用いて特徴シフトを定量化する。
論文 参考訳(メタデータ) (2025-05-28T17:20:49Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Attention Consistency Refined Masked Frequency Forgery Representation
for Generalizing Face Forgery Detection [96.539862328788]
既存の偽造検出方法は、未確認領域の真正性を決定する不満足な一般化能力に悩まされている。
ACMF(Attention Consistency Refined masked frequency forgery representation model)を提案する。
いくつかのパブリックフェイスフォージェリーデータセットの実験結果から,提案手法の性能は最先端の手法と比較して優れていることが示された。
論文 参考訳(メタデータ) (2023-07-21T08:58:49Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Universal Adversarial Perturbations Through the Lens of Deep
Steganography: Towards A Fourier Perspective [78.05383266222285]
人間の知覚不能な摂動は、ほとんどの画像のディープニューラルネットワーク(DNN)をだますために生成することができる。
ディープステガノグラフィタスクでは同様の現象が観測されており、デコーダネットワークはわずかに乱れたカバー画像から秘密の画像を取得することができる。
1)攻撃と隠蔽を同時に行うユニバーサル・シークレット・アドバイサル・パーターベーション(USAP)、(2)人間の目では見えないハイパスUAP(HP-UAP)の2つの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:26:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。