論文の概要: How Noise Benefits AI-generated Image Detection
- arxiv url: http://arxiv.org/abs/2511.16136v1
- Date: Thu, 20 Nov 2025 08:16:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.525814
- Title: How Noise Benefits AI-generated Image Detection
- Title(参考訳): AIが生成した画像検出にノイズがどう影響するか
- Authors: Jiazhen Yan, Ziqiang Li, Fan Wang, Kai Zeng, Zhangjie Fu,
- Abstract要約: AI生成画像のアウト・オブ・ディストリビューションの一般化は、永続的な課題である。
雑音発生器と検出ネットワークを同時学習するCLIP(PiN-CLIP)を提案する。
提案手法は,従来の手法に比べて平均精度が5.4向上し,新しい最先端性能を実現する。
- 参考スコア(独自算出の注目度): 15.496270003630451
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of generative models has made real and synthetic images increasingly indistinguishable. Although extensive efforts have been devoted to detecting AI-generated images, out-of-distribution generalization remains a persistent challenge. We trace this weakness to spurious shortcuts exploited during training and we also observe that small feature-space perturbations can mitigate shortcut dominance. To address this problem in a more controllable manner, we propose the Positive-Incentive Noise for CLIP (PiN-CLIP), which jointly trains a noise generator and a detection network under a variational positive-incentive principle. Specifically, we construct positive-incentive noise in the feature space via cross-attention fusion of visual and categorical semantic features. During optimization, the noise is injected into the feature space to fine-tune the visual encoder, suppressing shortcut-sensitive directions while amplifying stable forensic cues, thereby enabling the extraction of more robust and generalized artifact representations. Comparative experiments are conducted on an open-world dataset comprising synthetic images generated by 42 distinct generative models. Our method achieves new state-of-the-art performance, with notable improvements of 5.4 in average accuracy over existing approaches.
- Abstract(参考訳): 生成モデルの急速な進歩により、実画像と合成画像の区別がますます困難になっている。
AI生成画像の検出に多大な努力が注がれているが、分布外一般化は依然として永続的な課題である。
我々は、この弱点を訓練中に悪用された急激なショートカットに辿り着き、また、小さな特徴空間の摂動がショートカット支配を弱めることを観察する。
この問題をより制御可能な方法で解決するために,雑音発生器と検出ネットワークを共同で学習するCLIP(PiN-CLIP)を提案する。
具体的には、視覚的特徴とカテゴリー的特徴の相互注意融合により、特徴空間に正のインセンティブノイズを構築する。
最適化中、ノイズを特徴空間に注入して視覚エンコーダを微調整し、安定な法医学的手がかりを増幅しながらショートカット感受性の方向を抑え、より堅牢で一般化されたアーティファクト表現の抽出を可能にする。
42個の異なる生成モデルによって生成された合成画像からなるオープンワールドデータセットで比較実験を行った。
提案手法は,従来の手法に比べて平均精度が5.4向上し,新しい最先端性能を実現する。
関連論文リスト
- Revealing the Implicit Noise-based Imprint of Generative Models [71.94916898756684]
本稿では,検出タスクにノイズに基づくモデル固有インプリントを利用する新しいフレームワークを提案する。
様々な生成モデルからのインプリントを集約することにより、将来のモデルのインプリントを外挿してトレーニングデータを拡張することができる。
提案手法は,GenImage,Synthbuster,Chameleonの3つの公開ベンチマークにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-03-12T12:04:53Z) - Explainable Synthetic Image Detection through Diffusion Timestep Ensembling [30.298198387824275]
本稿では,複数の雑音の時間ステップでアンサンブルを訓練することにより,中間雑音画像の特徴を直接活用する合成画像検出手法を提案する。
人間の理解を深めるために,メートル法に基づく説明文生成と改良モジュールを導入する。
本手法は, 正解率98.91%, 正解率95.89%, 正解率95.89%, 正解率98.91%, 正解率95.89%である。
論文 参考訳(メタデータ) (2025-03-08T13:04:20Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - Diffusion Noise Feature: Accurate and Fast Generated Image Detection [23.923353960316618]
拡散雑音特徴(DNF)という新しい表現を提案する。
DNFは、人工的生成の指紋として機能する微妙で高周波のアーティファクトを増幅する。
提案手法は, 生成画像の検出において, 顕著な精度, 堅牢性, 一般化を実現する。
論文 参考訳(メタデータ) (2023-12-05T10:01:11Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Deep Semantic Statistics Matching (D2SM) Denoising Network [70.01091467628068]
本稿では,Deep Semantic Statistics Matching (D2SM) Denoising Networkを紹介する。
事前訓練された分類ネットワークの意味的特徴を利用して、意味的特徴空間における明瞭な画像の確率的分布と暗黙的に一致させる。
識別画像のセマンティックな分布を学習することで,ネットワークの認知能力を大幅に向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-19T14:35:42Z) - SAR Despeckling using a Denoising Diffusion Probabilistic Model [52.25981472415249]
スペックルの存在は画像品質を劣化させ、SAR画像理解アプリケーションの性能に悪影響を及ぼす。
本稿では,SAR脱種のための拡散確率モデルであるSAR-DDPMを紹介する。
提案手法は, 最先端の切り離し法と比較して, 定量化と定性化の両面で有意な改善を実現している。
論文 参考訳(メタデータ) (2022-06-09T14:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。