論文の概要: GRRE: Leveraging G-Channel Removed Reconstruction Error for Robust Detection of AI-Generated Images
- arxiv url: http://arxiv.org/abs/2601.02709v1
- Date: Tue, 06 Jan 2026 04:53:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.801819
- Title: GRRE: Leveraging G-Channel Removed Reconstruction Error for Robust Detection of AI-Generated Images
- Title(参考訳): GRRE:AI生成画像のロバスト検出のためのGチャネル除去再構成誤差の活用
- Authors: Shuman He, Xiehua Li, Xioaju Yang, Yang Xiong, Keqin Li,
- Abstract要約: G- Channel Removed Reconstruction Error (GRRE) は、堅牢なAI生成画像検出にこの差を利用した、シンプルで効果的な方法である。
GRREは、トレーニング中に見えないものを含む複数の生成モデル間で、高い検出精度を一貫して達成する。
これらの結果は、生成AI時代における画像の真正性を保護するための強力な法医学的ツールとして、チャネル除去に基づく再構築の可能性を強調している。
- 参考スコア(独自算出の注目度): 21.903079107456424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid progress of generative models, particularly diffusion models and GANs, has greatly increased the difficulty of distinguishing synthetic images from real ones. Although numerous detection methods have been proposed, their accuracy often degrades when applied to images generated by novel or unseen generative models, highlighting the challenge of achieving strong generalization. To address this challenge, we introduce a novel detection paradigm based on channel removal reconstruction. Specifically, we observe that when the green (G) channel is removed from real images and reconstructed, the resulting reconstruction errors differ significantly from those of AI-generated images. Building upon this insight, we propose G-channel Removed Reconstruction Error (GRRE), a simple yet effective method that exploits this discrepancy for robust AI-generated image detection. Extensive experiments demonstrate that GRRE consistently achieves high detection accuracy across multiple generative models, including those unseen during training. Compared with existing approaches, GRRE not only maintains strong robustness against various perturbations and post-processing operations but also exhibits superior cross-model generalization. These results highlight the potential of channel-removal-based reconstruction as a powerful forensic tool for safeguarding image authenticity in the era of generative AI.
- Abstract(参考訳): 生成モデルの急速な進歩、特に拡散モデルとGANは、合成画像と実際の画像とを区別することの難しさを大幅に高めた。
多数の検出手法が提案されているが、その精度は、新しい生成モデルや目に見えない生成モデルによって生成された画像に適用されると劣化し、強力な一般化を実現するという課題を浮き彫りにしている。
この課題に対処するために,チャネル除去再構成に基づく新しい検出パラダイムを提案する。
具体的には、実際の画像からグリーン(G)チャネルを除去して再構成すると、その結果の再構成エラーがAI生成画像と大きく異なることを観察する。
この知見に基づいて,堅牢なAI生成画像検出にこの差を利用した簡易かつ効果的なGチャネル除去再構成誤差(GRRE)を提案する。
広範囲な実験により、GRREはトレーニング中に見えないものを含む複数の生成モデルに対して、常に高い検出精度を達成することが示されている。
既存のアプローチと比較して、GRREは様々な摂動や後処理操作に対して強い堅牢性を維持するだけでなく、優れたクロスモデル一般化を示す。
これらの結果は、生成AI時代における画像の真正性を保護するための強力な法医学的ツールとして、チャネル除去に基づく再構築の可能性を強調している。
関連論文リスト
- Revisiting Reconstruction-based AI-generated Image Detection: A Geometric Perspective [50.83711509908479]
幾何学的観点からの再構成誤差に対するヤコビアンスペクトル下界の導入について述べる。
再構成多様体上の実画像は非自明な誤差下界を示し、多様体上の生成された画像はゼロに近い誤差を持つことを示す。
本稿では,構造化編集操作を活用することで動的再構成誤差を計算できるReGapを提案する。
論文 参考訳(メタデータ) (2025-10-29T03:45:03Z) - $\bf{D^3}$QE: Learning Discrete Distribution Discrepancy-aware Quantization Error for Autoregressive-Generated Image Detection [85.9202830503973]
視覚的自己回帰(AR)モデルは、離散トークン予測を通じて画像を生成する。
本稿では,離散分布離散性を考慮した量子化誤差(D$3$QE)を自己回帰画像検出に活用することを提案する。
論文 参考訳(メタデータ) (2025-10-07T13:02:27Z) - DroneSR: Rethinking Few-shot Thermal Image Super-Resolution from Drone-based Perspective [50.887173519116196]
画像上の超分解能タスクでは、生成モデルの代表としての拡散モデルは通常、大規模なアーキテクチャを採用する。
ドローンが捕獲した赤外線のトレーニングデータはほとんどないが、大規模なアーキテクチャでは過度なオーバーフィッティングをしばしば引き起こす。
本稿では,過度な適合を緩和し,ロバスト性を高める拡散モデルに指向した新しいガウス量子化表現学習法を提案する。
論文 参考訳(メタデータ) (2025-09-02T02:37:42Z) - Semantic-Aware Reconstruction Error for Detecting AI-Generated Images [22.83053631078616]
本稿では,画像とキャプション誘導再構成のセマンティック・アウェア・リコンストラクション・エラー(SARE)を計測する新しい表現を提案する。
SAREは、さまざまな生成モデル間で偽画像を検出するための堅牢で差別的な機能を提供する。
また,SAREを背骨検出器に統合する融合モジュールを,クロスアテンション機構を介して導入する。
論文 参考訳(メタデータ) (2025-08-13T04:37:36Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Self-supervised GAN Detector [10.963740942220168]
生成モデルは 不正や 破壊 偽ニュースなど 悪意のある目的で悪用される
トレーニング設定外の未確認画像を識別する新しいフレームワークを提案する。
提案手法は,GAN画像の高品質な人工指紋を再構成する人工指紋生成装置から構成する。
論文 参考訳(メタデータ) (2021-11-12T06:19:04Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。