論文の概要: Adversarially Robust AI-Generated Image Detection for Free: An Information Theoretic Perspective
- arxiv url: http://arxiv.org/abs/2505.22604v2
- Date: Fri, 30 May 2025 10:57:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 12:43:13.135575
- Title: Adversarially Robust AI-Generated Image Detection for Free: An Information Theoretic Perspective
- Title(参考訳): 可逆的ロバストなAI生成画像検出:情報理論の視点から
- Authors: Ruixuan Zhang, He Wang, Zhengyu Zhao, Zhiqing Guo, Xun Yang, Yunfeng Diao, Meng Wang,
- Abstract要約: 我々は,AIGI検出において,対戦訓練(AT)がパフォーマンスの低下に悩まされていることを示す。
この差に触発されて,情報理論による無トレーニングロバスト検出(TRIM)を提案する。
TRIMは標準検出器上に構築され、予測エントロピーとKL分散を用いて特徴シフトを定量化する。
- 参考スコア(独自算出の注目度): 22.514709685678813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rapid advances in Artificial Intelligence Generated Images (AIGI) have facilitated malicious use, such as forgery and misinformation. Therefore, numerous methods have been proposed to detect fake images. Although such detectors have been proven to be universally vulnerable to adversarial attacks, defenses in this field are scarce. In this paper, we first identify that adversarial training (AT), widely regarded as the most effective defense, suffers from performance collapse in AIGI detection. Through an information-theoretic lens, we further attribute the cause of collapse to feature entanglement, which disrupts the preservation of feature-label mutual information. Instead, standard detectors show clear feature separation. Motivated by this difference, we propose Training-free Robust Detection via Information-theoretic Measures (TRIM), the first training-free adversarial defense for AIGI detection. TRIM builds on standard detectors and quantifies feature shifts using prediction entropy and KL divergence. Extensive experiments across multiple datasets and attacks validate the superiority of our TRIM, e.g., outperforming the state-of-the-art defense by 33.88% (28.91%) on ProGAN (GenImage), while well maintaining original accuracy.
- Abstract(参考訳): 人工知能生成画像(AIGI)の急速な進歩は、偽造や誤情報などの悪意ある使用を促進する。
そのため、偽画像の検出には多くの方法が提案されている。
このような検出器は敵の攻撃に対して普遍的に脆弱であることが証明されているが、この分野での防御は乏しい。
本稿では,AIGI検出において,対戦訓練(AT)が最も効果的な防御法として認識され,性能の低下に悩まされていることを最初に確認する。
情報理論レンズにより,崩壊の原因を特徴絡みとみなし,特徴ラベルの相互情報の保存を阻害する。
代わりに、標準検出器は明らかな特徴分離を示す。
そこで本研究では,AIGI検出のための初となる,情報理論による学習自由ロバスト検出(TRIM)を提案する。
TRIMは標準検出器上に構築され、予測エントロピーとKL分散を用いて特徴シフトを定量化する。
複数のデータセットとアタックにわたる大規模な実験は、私たちのTRIMの優位性、例えば、ProGAN(GenImage)上で最先端の防御を33.88%(28.91%)上回っており、元の精度を維持している。
関連論文リスト
- Take Fake as Real: Realistic-like Robust Black-box Adversarial Attack to Evade AIGC Detection [4.269334070603315]
本稿では,後処理の融合最適化を用いた現実的なロバストブラックボックス攻撃(R$2$BA)を提案する。
R$2$BAは優れた抗検出性能,可視性,GANおよび拡散型症例の強い堅牢性を示す。
論文 参考訳(メタデータ) (2024-12-09T18:16:50Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks [39.524974831780874]
FPBAはブラックボックス攻撃を成功させることができるので、敵攻撃はAIGI検出器にとって真の脅威であることを示す。
我々はこの手法を周波数ベースのポストトレインベイズアタック (FPBA) と呼ぶ。
論文 参考訳(メタデータ) (2024-07-30T14:07:17Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Adversarial Medical Image with Hierarchical Feature Hiding [38.551147309335185]
逆例(AEs)は、医用画像の深層学習に基づく手法において、大きなセキュリティ上の欠陥を生じさせる。
PGDのような従来の敵攻撃は特徴空間で容易に区別でき、正確な反応性防御をもたらすことが判明した。
本稿では,従来のホワイトボックス攻撃に対する新たなアドオンであるHFC(Simple-yet- Effective Hierarchical Feature constraint)を提案する。
論文 参考訳(メタデータ) (2023-12-04T07:04:20Z) - ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches [4.4100683691177816]
敵対的攻撃は、機械学習モデルの信頼性の高いデプロイに重大な課題をもたらす。
パッチベースの敵攻撃に対処するための総合的な防御戦略である外乱検出・次元削減(ODDR)を提案する。
提案手法は,逆パッチに対応する入力特徴を外れ値として同定できるという観測に基づいている。
論文 参考訳(メタデータ) (2023-11-20T11:08:06Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。