論文の概要: MIRROR: Manifold Ideal Reference ReconstructOR for Generalizable AI-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2602.02222v1
- Date: Mon, 02 Feb 2026 15:28:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.253827
- Title: MIRROR: Manifold Ideal Reference ReconstructOR for Generalizable AI-Generated Image Detection
- Title(参考訳): MIRROR:汎用AI生成画像検出のためのマニフォールドIdeal Reference Reconstructor
- Authors: Ruiqi Liu, Manni Cui, Ziheng Qin, Zhiyuan Yan, Ruoxin Chen, Yi Han, Zhiheng Li, Junkai Chen, ZhiJin Chen, Kaiqing Lin, Jialiang Shen, Lubin Weng, Jing Dong, Yan Wang, Shu Wu,
- Abstract要約: 高忠実度生成モデルは、合成画像と実際の画像の間の知覚的ギャップを狭め、メディアセキュリティに深刻な脅威を与えている。
既存のAI生成画像検出器(AIGI)は、アーティファクトベースの分類と、進化する生成トレースへの一般化に苦労している。
学習可能な離散メモリバンクを用いて,現実の先行情報を明示的に符号化するフレームワークであるMIRRORを提案する。
- 参考スコア(独自算出の注目度): 31.416844677021615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-fidelity generative models have narrowed the perceptual gap between synthetic and real images, posing serious threats to media security. Most existing AI-generated image (AIGI) detectors rely on artifact-based classification and struggle to generalize to evolving generative traces. In contrast, human judgment relies on stable real-world regularities, with deviations from the human cognitive manifold serving as a more generalizable signal of forgery. Motivated by this insight, we reformulate AIGI detection as a Reference-Comparison problem that verifies consistency with the real-image manifold rather than fitting specific forgery cues. We propose MIRROR (Manifold Ideal Reference ReconstructOR), a framework that explicitly encodes reality priors using a learnable discrete memory bank. MIRROR projects an input into a manifold-consistent ideal reference via sparse linear combination, and uses the resulting residuals as robust detection signals. To evaluate whether detectors reach the "superhuman crossover" required to replace human experts, we introduce the Human-AIGI benchmark, featuring a psychophysically curated human-imperceptible subset. Across 14 benchmarks, MIRROR consistently outperforms prior methods, achieving gains of 2.1% on six standard benchmarks and 8.1% on seven in-the-wild benchmarks. On Human-AIGI, MIRROR reaches 89.6% accuracy across 27 generators, surpassing both lay users and visual experts, and further approaching the human perceptual limit as pretrained backbones scale. The code is publicly available at: https://github.com/349793927/MIRROR
- Abstract(参考訳): 高忠実度生成モデルは、合成画像と実際の画像の間の知覚的ギャップを狭め、メディアセキュリティに深刻な脅威を与えている。
既存のAI生成画像検出器(AIGI)は、アーティファクトベースの分類と、進化する生成トレースへの一般化に苦労している。
対照的に、人間の判断は安定した現実世界の規則性に依存しており、人間の認知多様体からの逸脱は偽造のより一般化可能なシグナルとして機能する。
この知見により、我々はAIGI検出を参照比較問題として再構成し、特定のフォージェリーキューに適合するのではなく、実像多様体との整合性を検証する。
学習可能な離散メモリバンクを用いて,現実の先行情報を明示的に符号化するフレームワークであるMIRROR(Manifold Ideal Reference Reconstructor)を提案する。
MIRRORは、入力をスパース線形結合を介して多様体一貫性の理想参照に射影し、その結果の残基をロバスト検出信号として利用する。
検知器が人間の専門家に取って代わるために必要となる「超人的クロスオーバー」に達するかどうかを評価するために,精神物理学的にキュレートされた人間の知覚できないサブセットを特徴とするHuman-AIGIベンチマークを導入する。
14のベンチマークで、MIRRORは従来手法を一貫して上回り、6つの標準ベンチマークで2.1%、そして7つの標準ベンチマークで8.1%を達成している。
ヒューマンAIGIでは、MIRRORは27個のジェネレータで89.6%の精度に達し、正規のユーザーと視覚の専門家を超越し、事前訓練されたバックボーンのスケールとして人間の知覚限界に近づいている。
コードは、https://github.com/349793927/MIRRORで公開されている。
関連論文リスト
- Unveiling Perceptual Artifacts: A Fine-Grained Benchmark for Interpretable AI-Generated Image Detection [95.08316274158165]
X-AIGDは、低レベルの歪み、高レベルの意味論、認知レベルの反事実など、知覚的アーティファクトのピクセルレベルの分類されたアノテーションを提供する。
既存のAIGI検出器は、最も基本的な歪みレベルであっても、知覚的アーティファクトに依存しない。
モデル注意をアーティファクト領域と明確に整合させることは、検出器の解釈可能性と一般化を高めることができる。
論文 参考訳(メタデータ) (2026-01-27T10:09:17Z) - CINEMAE: Leveraging Frozen Masked Autoencoders for Cross-Generator AI Image Detection [25.84217122259626]
CINEMAEはテキスト検出法の中核となる原則を視覚領域に適用する。
我々は、安定拡散v1.4のみをトレーニングし、GenImageベンチマークの8つの未知のジェネレータに対して95%以上の精度を達成した。
このことは、文脈条件の再構成の不確実性が、AIGC検出のための堅牢で転送可能な信号を提供することを示している。
論文 参考訳(メタデータ) (2025-11-09T11:05:45Z) - Bi-Level Optimization for Self-Supervised AI-Generated Face Detection [56.57881725223548]
両レベル最適化に基づくAI生成顔検出器の自己教師方式を提案する。
我々の検出器は、一級・二級の分類設定において、既存のアプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-07-30T16:38:29Z) - RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - Breaking Latent Prior Bias in Detectors for Generalizable AIGC Image Detection [11.907536189598577]
現在のAIGC検出器は、トレーニングに使用される同じジェネレータで生成された画像に対してほぼ完璧な精度を達成するが、目に見えないジェネレータからの出力に一般化するのに苦労する。
検出器は、堅牢な生成アーティファクトを学ぶのではなく、初期ノイズベクトルから発生するパターンに関連するショートカットを学習する。
そこで我々は, 発電機の出力多様体に残る逆数例を生成するオン・マニフォールド・逆数訓練(OMAT)を提案する。
論文 参考訳(メタデータ) (2025-06-01T07:20:45Z) - Towards Generalizable Forgery Detection and Reasoning [23.858913560970866]
We formulate detection and explanation as a unified forgery Detection and Reasoning task (FDR-Task)
マルチモーダル・フォージェリー推論データセット (MMFR-Dataset) は10つの生成モデルにわたる120K画像を含む大規模データセットであり, フォージェリー属性には378Kの推論アノテーションがある。
複数の生成モデルに対する実験により、FakeReasoningは堅牢な一般化を実現し、検出タスクと推論タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-03-27T06:54:06Z) - Orthogonal Subspace Decomposition for Generalizable AI-Generated Image Detection [58.87142367781417]
航法的に訓練された検出器は、限定的で単調な偽のパターンに過度に適合する傾向にあり、特徴空間は高度に制約され、低ランクになる。
潜在的な治療法の1つは、ビジョンファウンデーションモデルに事前訓練された知識を取り入れて、機能領域を広げることである。
主要なコンポーネントを凍結し、残ったコンポーネントのみを適用することで、フェイクパターンを学習しながら、トレーニング済みの知識を保存します。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - HumanRefiner: Benchmarking Abnormal Human Generation and Refining with Coarse-to-fine Pose-Reversible Guidance [80.97360194728705]
AbHumanは、解剖学的異常に焦点を当てた最初の大規模なヒトのベンチマークである。
HumanRefinerは、テキスト・ツー・イメージ生成における人間の異常の粗い微細化のための新しいプラグ・アンド・プレイアプローチである。
論文 参考訳(メタデータ) (2024-07-09T15:14:41Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。