論文の概要: TrueMoE: Dual-Routing Mixture of Discriminative Experts for Synthetic Image Detection
- arxiv url: http://arxiv.org/abs/2509.15741v1
- Date: Fri, 19 Sep 2025 08:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.071592
- Title: TrueMoE: Dual-Routing Mixture of Discriminative Experts for Synthetic Image Detection
- Title(参考訳): TrueMoE: 画像検出のための識別専門家のデュアルルート混合
- Authors: Laixin Zhang, Shuaibo Li, Wei Ma, Hongbin Zha,
- Abstract要約: そこで我々は,新しい二輪混合実験フレームワークTrueMoEを提案する。
TrueMoEの中核には、多様体構造の相補的軸と知覚的粒度に沿って構成された識別的エキスパートアレイ(DEA)がある。
様々な生成モデルに対する実験により、TrueMoEはより優れた一般化とロバスト性を達成することを示した。
- 参考スコア(独自算出の注目度): 33.827580636588586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid progress of generative models has made synthetic image detection an increasingly critical task. Most existing approaches attempt to construct a single, universal discriminative space to separate real from fake content. However, such unified spaces tend to be complex and brittle, often struggling to generalize to unseen generative patterns. In this work, we propose TrueMoE, a novel dual-routing Mixture-of-Discriminative-Experts framework that reformulates the detection task as a collaborative inference across multiple specialized and lightweight discriminative subspaces. At the core of TrueMoE is a Discriminative Expert Array (DEA) organized along complementary axes of manifold structure and perceptual granularity, enabling diverse forgery cues to be captured across subspaces. A dual-routing mechanism, comprising a granularity-aware sparse router and a manifold-aware dense router, adaptively assigns input images to the most relevant experts. Extensive experiments across a wide spectrum of generative models demonstrate that TrueMoE achieves superior generalization and robustness.
- Abstract(参考訳): 生成モデルの急速な進歩により、合成画像検出はますます重要な課題となっている。
既存のほとんどのアプローチは、偽のコンテンツから現実を分離するために単一の普遍的な差別空間を構築しようとする。
しかし、そのような統一空間は複雑で脆く、しばしば目に見えない生成パターンに一般化するのに苦労する。
本研究では,複数の特殊および軽量な識別サブ空間にまたがる協調的推論として検出タスクを再構成する,新しい2重ルーティングミクチャー・オブ・ディクリミティブ・エクササイズ・フレームワークであるTrueMoEを提案する。
TrueMoEの中核には、多様体構造の相補的な軸と知覚的な粒度に沿って構成された識別専門家アレイ(DEA)があり、様々な偽の手がかりをサブスペースにわたって取得することができる。
粒度対応スパースルータと多様体対応高密度ルータとからなるデュアルルータ機構は、入力画像を最も関係のある専門家に適応的に割り当てる。
広範囲の生成モデルにわたる広範な実験により、TrueMoEはより優れた一般化とロバスト性を達成することを示した。
関連論文リスト
- CAD: A General Multimodal Framework for Video Deepfake Detection via Cross-Modal Alignment and Distillation [24.952907733127223]
クロスモーダルアライメント・蒸留(CAD)を用いたビデオディープフェイク検出のための一般的なフレームワークを提案する。
1)高レベルのセマンティックシンセシスにおける矛盾を識別するクロスモーダルアライメント(例:リップ音声ミスマッチ)、2)モダリティ特異的な法医学的痕跡(例:合成音声のスペクトル歪み)を保存しながらミスマッチを緩和するクロスモーダル蒸留(例:合成音声のスペクトル歪み)である。
論文 参考訳(メタデータ) (2025-05-21T08:11:07Z) - Memory-Augmented Dual-Decoder Networks for Multi-Class Unsupervised Anomaly Detection [21.341378704908333]
メモリ拡張デュアルデコーダネットワーク(MDD-Net)を提案する。
このネットワークには、Dual-Decoder Reverse Distillation Network (DRD-Net)とClass-Aware Memory Module (CMM)の2つの重要なコンポーネントが含まれている。
2つのデコーダが生成する特徴の相違を利用して,従来のエンコーダ-デコーダ比較パラダイムを超えた異常スコアを改良する。
論文 参考訳(メタデータ) (2025-04-21T06:29:04Z) - BIG-MoE: Bypass Isolated Gating MoE for Generalized Multimodal Face Anti-Spoofing [45.59998158610864]
マルチモーダル・フェイス・アンチ・スプーフィング(FAS)は、プレゼンテーションアタックに対抗するために不可欠である。
既存の技術は、モダリティバイアスや不均衡、ドメインシフトといった問題に直面している。
本稿では,これらの問題を効果的に解決するためのMixture of Experts(MoE)モデルについて紹介する。
論文 参考訳(メタデータ) (2024-12-24T00:28:28Z) - MFCLIP: Multi-modal Fine-grained CLIP for Generalizable Diffusion Face Forgery Detection [64.29452783056253]
フォトリアリスティック・フェイスジェネレーション手法の急速な発展は、社会やアカデミックにおいて大きな関心を集めている。
既存のアプローチは主に画像モダリティを用いて顔の偽造パターンをキャプチャするが、きめ細かいノイズやテキストのような他のモダリティは完全には探索されていない。
そこで本研究では,画像ノイズの多点にわたる包括的かつきめ細かなフォージェリートレースをマイニングする,MFCLIP(MF-modal Fine-fine-fine-fine-fine-fine CLIP)モデルを提案する。
論文 参考訳(メタデータ) (2024-09-15T13:08:59Z) - Unity in Diversity: Multi-expert Knowledge Confrontation and Collaboration for Generalizable Vehicle Re-identification [60.20318058777603]
一般化可能な車両再識別(ReID)は、微調整や再訓練を必要とせず、未知のターゲットドメインに適応可能なモデルの開発を目指している。
これまでの研究は主に、ソースドメイン間のデータ分散を調整することで、ドメイン不変の機能の抽出に重点を置いてきた。
そこで本研究では,この問題を解決するために,2段階のMulti-expert Knowledge Confrontation and Collaboration(MiKeCoCo)手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T04:06:39Z) - All in One Framework for Multimodal Re-identification in the Wild [58.380708329455466]
オールインワン(AIO)という,ReID導入のためのマルチモーダル学習パラダイム
AIOは、凍結したトレーニング済みのビッグデータをエンコーダとして利用し、追加の微調整なしに効果的なマルチモーダル検索を可能にする。
クロスモーダルおよびマルチモーダルReIDの実験により、AIOは様々なモーダルデータを扱うだけでなく、困難な状況でも優れていることが明らかになった。
論文 参考訳(メタデータ) (2024-05-08T01:04:36Z) - All Grains, One Scheme (AGOS): Learning Multi-grain Instance
Representation for Aerial Scene Classification [31.412401135677744]
本稿では,これらの課題に対処するための新しい枠組みである1つのスキーム(AGOS)を提案する。
マルチグラインド認識モジュール(MGP)、マルチブランチマルチインスタンス表現モジュール(MBMIR)、自己整合セマンティックフュージョン(SSF)モジュールで構成される。
当社のAGOSは柔軟で,既存のCNNにプラグイン・アンド・プレイで容易に対応できる。
論文 参考訳(メタデータ) (2022-05-06T17:10:44Z) - Multi-Scale Cascading Network with Compact Feature Learning for
RGB-Infrared Person Re-Identification [35.55895776505113]
マルチスケールパートアウェアカスケードフレームワーク(MSPAC)は、マルチスケールの細かい機能を部分からグローバルに集約することによって策定されます。
したがって、クロスモダリティ相関は、特徴的モダリティ不変な特徴学習のための顕著な特徴を効率的に探索することができる。
論文 参考訳(メタデータ) (2020-12-12T15:39:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。