論文の概要: OmniAID: Decoupling Semantic and Artifacts for Universal AI-Generated Image Detection in the Wild
- arxiv url: http://arxiv.org/abs/2511.08423v1
- Date: Wed, 12 Nov 2025 01:58:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.808459
- Title: OmniAID: Decoupling Semantic and Artifacts for Universal AI-Generated Image Detection in the Wild
- Title(参考訳): OmniAID: 野生におけるAI生成画像検出のための意味とアーティファクトの分離
- Authors: Yuncheng Guo, Junyan Ye, Chenjue Zhang, Hengrui Kang, Haohuan Fu, Conghui He, Weijia Li,
- Abstract要約: 普遍的なAI生成画像検出器は、多様な生成モデルと多様なセマンティックコンテンツを同時に一般化する必要がある。
分離されたMixture-of-Expertsアーキテクチャを中心とした新しいフレームワークであるOmniAIDを提案する。
当社のモデルは既存のモノリシック検出器を超越し、最新の非破壊的脅威に対するAIGI認証の新しい堅牢な標準を確立します。
- 参考スコア(独自算出の注目度): 40.585896860010656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A truly universal AI-Generated Image (AIGI) detector must simultaneously generalize across diverse generative models and varied semantic content. Current state-of-the-art methods learn a single, entangled forgery representation--conflating content-dependent flaws with content-agnostic artifacts--and are further constrained by outdated benchmarks. To overcome these limitations, we propose OmniAID, a novel framework centered on a decoupled Mixture-of-Experts (MoE) architecture. The core of our method is a hybrid expert system engineered to decouple: (1) semantic flaws across distinct content domains, and (2) these content-dependent flaws from content-agnostic universal artifacts. This system employs a set of Routable Specialized Semantic Experts, each for a distinct domain (e.g., human, animal), complemented by a Fixed Universal Artifact Expert. This architecture is trained using a bespoke two-stage strategy: we first train the experts independently with domain-specific hard-sampling to ensure specialization, and subsequently train a lightweight gating network for effective input routing. By explicitly decoupling "what is generated" (content-specific flaws) from "how it is generated" (universal artifacts), OmniAID achieves robust generalization. To address outdated benchmarks and validate real-world applicability, we introduce Mirage, a new large-scale, contemporary dataset. Extensive experiments, using both traditional benchmarks and our Mirage dataset, demonstrate our model surpasses existing monolithic detectors, establishing a new, robust standard for AIGI authentication against modern, in-the-wild threats.
- Abstract(参考訳): 真に普遍的なAI生成画像(AIGI)検出器は、多様な生成モデルとさまざまな意味的内容に対して同時に一般化する必要がある。
現在の最先端の手法は、単一の絡み合った偽表現(コンテンツに依存しないアーティファクトでコンテンツ依存の欠陥を膨らませる)を学習し、時代遅れのベンチマークによってさらに制限される。
これらの制約を克服するために、分離されたMixture-of-Experts(MoE)アーキテクチャを中心とした新しいフレームワークであるOmniAIDを提案する。
本手法のコアとなるのは,(1)異なるコンテンツ領域にまたがる意味的欠陥,(2)コンテンツに依存しない普遍的なアーティファクトからのコンテンツ依存的欠陥を分離するために設計されたハイブリッドエキスパートシステムである。
このシステムは、それぞれ異なるドメイン(例えば人間、動物)に対して、固定されたユニバーサルアーティファクトエキスパートによって補完される、ルーティング可能な専門的なセマンティックエキスパートのセットを採用している。
このアーキテクチャは、まずドメイン固有のハードサンプリングを独立してトレーニングし、その後、効果的な入力ルーティングのために軽量なゲーティングネットワークをトレーニングします。
OmniAIDは「生成するもの」(コンテンツ固有の欠陥)を「生成方法」(ユニバーサルアーティファクト)から明示的に分離することで、堅牢な一般化を実現する。
古いベンチマークに対処し、実世界の適用性を検証するために、新しい大規模で現代的なデータセットであるMirageを紹介します。
従来のベンチマークとMirageデータセットの両方を使用した大規模な実験は、我々のモデルを既存のモノリシック検出器を超越し、最新で知的な脅威に対するAIGI認証の新しい堅牢な標準を確立しました。
関連論文リスト
- Towards Unified Multimodal Misinformation Detection in Social Media: A Benchmark Dataset and Baseline [56.790045049514326]
詐欺の2つの主要な形態は、人造誤報とAI生成コンテンツである。
両形態の偽造を扱うためのフレームワークであるUMFDet(Unified Multimodal Fake Content Detection)を提案する。
UMFDetは、両方の誤情報型に対して堅牢で一貫したパフォーマンスを実現し、特殊ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-09-30T09:26:32Z) - ArtifactsBench: Bridging the Visual-Interactive Gap in LLM Code Generation Evaluation [51.297873393639456]
ArtifactsBenchは自動ビジュアルコード生成評価のためのフレームワークである。
我々のフレームワークは、生成した各アーティファクトをレンダリングし、時間的スクリーンショットを通してその動的な振る舞いをキャプチャする。
我々は1,825の多様なタスクの新しいベンチマークを構築し、30以上の主要な大規模言語モデルを評価する。
論文 参考訳(メタデータ) (2025-07-07T12:53:00Z) - MemoryOut: Learning Principal Features via Multimodal Sparse Filtering Network for Semi-supervised Video Anomaly Detection [30.470777079947958]
再構成や予測に基づくビデオ異常検出(VAD)手法は2つの重要な課題に直面している。
強い一般化能力は、しばしば正確な再構築や異常事象の予測をもたらす。
低レベルの外観と動きの手がかりにのみ依存することは、複雑なシーンから異常な出来事における高レベルの意味を識別する能力を制限する。
論文 参考訳(メタデータ) (2025-06-03T07:14:57Z) - HFMF: Hierarchical Fusion Meets Multi-Stream Models for Deepfake Detection [4.908389661988192]
HFMFは総合的な2段階のディープフェイク検出フレームワークである。
視覚変換器と畳み込みネットを階層的特徴融合機構を通じて統合する。
私たちのアーキテクチャは、多様なデータセットベンチマークで優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2025-01-10T00:20:29Z) - Orthogonal Subspace Decomposition for Generalizable AI-Generated Image Detection [58.87142367781417]
航法的に訓練された検出器は、限定的で単調な偽のパターンに過度に適合する傾向にあり、特徴空間は高度に制約され、低ランクになる。
潜在的な治療法の1つは、ビジョンファウンデーションモデルに事前訓練された知識を取り入れて、機能領域を広げることである。
主要なコンポーネントを凍結し、残ったコンポーネントのみを適用することで、フェイクパターンを学習しながら、トレーニング済みの知識を保存します。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。