論文の概要: Diversity over Uniformity: Rethinking Representation in Generated Image Detection
- arxiv url: http://arxiv.org/abs/2603.00717v1
- Date: Sat, 28 Feb 2026 15:42:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.336992
- Title: Diversity over Uniformity: Rethinking Representation in Generated Image Detection
- Title(参考訳): 均一性に対する多様性:生成画像検出における表現の再考
- Authors: Qinghui He, Haifeng Zhang, Qiao Qin, Bo Liu, Xiuli Bi, Bin Xiao,
- Abstract要約: 我々は、確実に生成された画像検出は、単一の決定経路に依存するのではなく、複数の判断視点を維持するべきであると論じている。
本稿では,タスク非関係なコンポーネントをフィルタし,表現空間における様々なフォージェリーキュー間の過剰なオーバーラップを抑えるアンチファイン・コラプス学習フレームワークを提案する。
この設計は、モデル内で多様な補完的な証拠を維持し、小さな敬意的な手がかりへの依存を減らし、目に見えない生成条件下で堅牢性を高める。
- 参考スコア(独自算出の注目度): 22.020742109848317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of generative models, generated image detection has become an important task in visual forensics. Although existing methods have achieved remarkable progress, they often rely, after training, on only a small subset of highly salient forgery cues, which limits their ability to generalize to unseen generative mechanisms. We argue that reliably generated image detection should not depend on a single decision path but should preserve multiple judgment perspectives, enabling the model to understand the differences between real and generated images from diverse viewpoints. Based on this idea, we propose an anti-feature-collapse learning framework that filters task-irrelevant components and suppresses excessive overlap among different forgery cues in the representation space, preventing discriminative information from collapsing into a few dominant feature directions. This design maintains diverse and complementary evidence within the model, reduces reliance on a small set of salient cues, and enhances robustness under unseen generative settings. Extensive experiments on multiple public benchmarks demonstrate that the proposed method significantly outperforms the state-of-the-art approaches in cross-model scenarios, achieving an accuracy improvement of 5.02% and exhibiting superior generalization and detection reliability. The source code is available at https://github.com/Yanmou-Hui/DoU.
- Abstract(参考訳): 生成モデルの急速な進歩により、生成画像検出は視覚法医学において重要な課題となっている。
既存の手法は顕著な進歩を遂げているが、訓練後、しばしば、非常に有能なフォージェリー・キューの小さなサブセットに頼っている。
我々は、確実に生成された画像検出は、一つの決定経路に依存するのではなく、複数の判断視点を保ち、様々な視点から生成された実画像と実画像の差異をモデルが理解できるようにするべきだと論じる。
この考え方に基づいて,タスク非関連コンポーネントをフィルタリングし,表現空間における様々な偽情報間の過剰な重複を抑え,識別情報がいくつかの支配的な特徴方向に崩壊するのを防ぐ,機能非競合学習フレームワークを提案する。
この設計はモデル内の多様かつ相補的な証拠を維持し、小さな敬意的な手がかりへの依存を減らし、目に見えない生成条件下で堅牢性を高める。
複数の公開ベンチマーク実験により、提案手法はクロスモデルシナリオにおける最先端手法を著しく上回り、5.02%の精度向上を実現し、より優れた一般化と検出信頼性を示すことを示した。
ソースコードはhttps://github.com/Yanmou-Hui/DoU.comで入手できる。
関連論文リスト
- ThinkFake: Reasoning in Multimodal Large Language Models for AI-Generated Image Detection [51.93101033997245]
AI生成画像のリアリズムの増大は、誤情報やプライバシー侵害に対する深刻な懸念を引き起こしている。
我々は、AI生成画像検出のための新しい推論に基づく一般化可能なフレームワークThinkFakeを提案する。
我々は、ThinkFakeがGenImageベンチマークで最先端の手法より優れており、挑戦的なLOKIベンチマークで強力なゼロショットの一般化を示すことを示す。
論文 参考訳(メタデータ) (2025-09-24T07:34:09Z) - BIDO: A Unified Approach to Address Obfuscation and Concept Drift Challenges in Image-based Malware Detection [15.388728305777908]
BIDOは、難読化とコンセプトドリフトの両方に対する堅牢性を高めるために設計されたハイブリッドイメージベースのマルウェア検出器である。
具体的には,画像特徴の識別能力を向上させるために,局所的特徴選択モジュールを導入する。
第3に,特徴のコンパクト性を確保するために,同一のラベルを持つサンプルを近い位置から抽出する学習可能なメトリクスを設計する。
論文 参考訳(メタデータ) (2025-09-04T01:48:03Z) - MiraGe: Multimodal Discriminative Representation Learning for Generalizable AI-Generated Image Detection [32.662682253295486]
一般化可能なAI生成画像検出のためのマルチモーダル識別学習(MiraGegenerator)を提案する。
テキスト埋め込みをセマンティックアンカーとして活用し、効果的な識別的表現学習を実現するために、マルチモーダル・プロンプト・ラーニングを適用した。
MiraGegeneratorは最先端のパフォーマンスを実現し、Soraのような目に見えないジェネレータに対してさえ堅牢性を維持している。
論文 参考訳(メタデータ) (2025-08-03T00:19:18Z) - A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Towards Robust GAN-generated Image Detection: a Multi-view Completion
Representation [27.483031588071942]
GAN生成画像検出は、ディープフェイクのようなマシン合成画像操作の悪意ある使用に対する最初の防御線となっている。
本稿では,新しい多視点画像補完表現に基づくロバスト検出フレームワークを提案する。
我々は,6つのGANに対して異なる解像度でフレームワークの一般化能力を評価し,その幅広い摂動攻撃に対する堅牢性を評価する。
論文 参考訳(メタデータ) (2023-06-02T08:38:02Z) - Hierarchical Forgery Classifier On Multi-modality Face Forgery Clues [61.37306431455152]
我々は,HFC-MFFD (hierarchical Forgery for Multi-modality Face Forgery Detection) を提案する。
HFC-MFFDは、マルチモーダルシナリオにおけるフォージェリー認証を強化するために、堅牢なパッチベースのハイブリッド表現を学習する。
クラス不均衡問題を緩和し、さらに検出性能を高めるために、特定の階層的な顔偽造を提案する。
論文 参考訳(メタデータ) (2022-12-30T10:54:29Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Multi-view Contrastive Coding of Remote Sensing Images at Pixel-level [5.64497799927668]
この制限を克服するために、ラベルのないマルチビュー設定に基づく画素単位のコントラスト的アプローチを提案する。
擬似媒介ResUnetは、シフトした正のペアから特徴を整列することを目的とした表現を学ぶために訓練される。
その結果,最先端のマルチビューコントラスト法よりも効率と精度が向上した。
論文 参考訳(メタデータ) (2021-05-18T13:28:46Z) - SPatchGAN: A Statistical Feature Based Discriminator for Unsupervised
Image-to-Image Translation [4.466402706561989]
教師なし画像画像変換では,個々のパッチではなく,統計的特徴に着目した識別器アーキテクチャを提案する。
提案手法は, セルフィー対アニム, 男性対女性, メガネの除去など, 様々な課題において, 既存の最先端モデルに勝ることを示す。
論文 参考訳(メタデータ) (2021-03-30T10:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。