論文の概要: Color Matters: Demosaicing-Guided Color Correlation Training for Generalizable AI-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2601.22778v2
- Date: Wed, 04 Feb 2026 09:04:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 15:07:33.615438
- Title: Color Matters: Demosaicing-Guided Color Correlation Training for Generalizable AI-Generated Image Detection
- Title(参考訳): カラーマター:一般化可能なAI生成画像検出のためのデモサイジングガイド付きカラー相関トレーニング
- Authors: Nan Zhong, Yiran Xu, Mian Zou,
- Abstract要約: 本稿では,AI生成画像検出のためのデモサイジング誘導色相関トレーニングフレームワークを提案する。
自己教師付きU-Netは、与えられたチャネルから欠落したチャネルの条件分布をモデル化するように訓練される。
理論的解析の結果,DCCTは画像とAI生成画像間の色相関特性の分布特性の証明可能な差異を目標としていることが明らかとなった。
- 参考スコア(独自算出の注目度): 10.845173807400533
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As realistic AI-generated images threaten digital authenticity, we address the generalization failure of generative artifact-based detectors by exploiting the intrinsic properties of the camera imaging pipeline. Concretely, we investigate color correlations induced by the color filter array (CFA) and demosaicing, and propose a Demosaicing-guided Color Correlation Training (DCCT) framework for AI-generated image detection. By simulating the CFA sampling pattern, we decompose each color image into a single-channel input (as the condition) and the remaining two channels as the ground-truth targets (for prediction). A self-supervised U-Net is trained to model the conditional distribution of the missing channels from the given one, parameterized via a mixture of logistic functions. Our theoretical analysis reveals that DCCT targets a provable distributional difference in color-correlation features between photographic and AI-generated images. By leveraging these distinct features to construct a binary classifier, DCCT achieves state-of-the-art generalization and robustness, significantly outperforming prior methods across over 20 unseen generators.
- Abstract(参考訳): リアルなAI生成画像は、デジタル認証を脅かすので、生成人工物に基づく検出器の一般化失敗に対処するために、カメラ画像パイプラインの本質的な特性を利用する。
具体的には、カラーフィルタアレイ(CFA)とデモサイジングによる色相関について検討し、AIによる画像検出のためのデモサイジング誘導色相関トレーニング(DCCT)フレームワークを提案する。
CFAサンプリングパターンをシミュレートすることにより、各カラー画像を(条件として)単一チャネル入力に分解し、残りの2つのチャネルを(予測のために)接地目標に分解する。
自己教師付きU-Netは、ロジスティック関数の混合によりパラメータ化され、与えられたチャネルから不足チャネルの条件分布をモデル化するように訓練される。
理論的解析の結果,DCCTは画像とAI生成画像間の色相関特性の分布特性の証明可能な差異を目標としていることが明らかとなった。
これらの特徴を活用してバイナリ分類器を構築することで、DCCTは最先端の一般化とロバスト性を実現し、20以上の未知のジェネレータで先行手法を著しく上回っている。
関連論文リスト
- Self-Supervised AI-Generated Image Detection: A Camera Metadata Perspective [80.10217707456046]
カメラメタデータを利用したAI生成画像検出のための自己教師型アプローチを提案する。
分類型EXIFタグを分類することにより,撮影画像のみに特徴抽出器を訓練する。
我々の検出器は、電界中のサンプルに対して強力な一般化と、一般的な良性イメージの摂動に対する堅牢性を提供する。
論文 参考訳(メタデータ) (2025-12-05T11:53:18Z) - $\bf{D^3}$QE: Learning Discrete Distribution Discrepancy-aware Quantization Error for Autoregressive-Generated Image Detection [85.9202830503973]
視覚的自己回帰(AR)モデルは、離散トークン予測を通じて画像を生成する。
本稿では,離散分布離散性を考慮した量子化誤差(D$3$QE)を自己回帰画像検出に活用することを提案する。
論文 参考訳(メタデータ) (2025-10-07T13:02:27Z) - Leveraging Semantic Attribute Binding for Free-Lunch Color Control in Diffusion Models [53.73253164099701]
拡散モデルにおいて、微調整なしで正確なRGBレベルの色制御を実現する、トレーニング不要なアプローチであるColorWaveを導入する。
我々は、カラーウェーブが、構造化された、色一貫性の拡散に基づく画像合成のための新しいパラダイムを確立することを実証した。
論文 参考訳(メタデータ) (2025-03-12T21:49:52Z) - DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
次に、学習したアーティファクト検出器が第2段階に関与し、ピクセルレベルのフィードバックを提供することで拡散モデルを最適化する。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Unsupervised contrastive analysis for anomaly detection in brain MRIs via conditional diffusion models [13.970483987621135]
本研究では、健康な画像に対して自己教師付きコントラストエンコーダを訓練することにより、再建品質を改善するための教師なしフレームワークを提案する。
これらの特徴は、拡散モデルを用いて、与えられた画像の健全な外観を再構成し、画素ワイド比較による解釈可能な異常な局所化を可能にする。
論文 参考訳(メタデータ) (2024-06-02T15:19:07Z) - Towards Homogeneous Modality Learning and Multi-Granularity Information
Exploration for Visible-Infrared Person Re-Identification [16.22986967958162]
Visible-infrared person re-identification (VI-ReID) は、可視・赤外線カメラビューを介して人物画像の集合を検索することを目的とした、困難かつ必須の課題である。
従来の手法では, GAN (Generative Adversarial Network) を用いて, モーダリティ・コンシデント・データを生成する手法が提案されている。
そこで本研究では、視線外デュアルモード学習をグレーグレー単一モード学習問題として再構成する、統一されたダークラインスペクトルであるAligned Grayscale Modality (AGM)を用いて、モード間マッチング問題に対処する。
論文 参考訳(メタデータ) (2022-04-11T03:03:19Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - CNN Detection of GAN-Generated Face Images based on Cross-Band
Co-occurrences Analysis [34.41021278275805]
最終世代のGANモデルでは、自然と視覚的に区別できない合成画像を生成することができる。
本稿では、スペクトル帯域間の不整合を利用して、自然画像とGAN生成物を区別する手法を提案する。
論文 参考訳(メタデータ) (2020-07-25T10:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。