論文の概要: Redefining Generalization in Visual Domains: A Two-Axis Framework for Fake Image Detection with FusionDetect
- arxiv url: http://arxiv.org/abs/2510.05740v1
- Date: Tue, 07 Oct 2025 10:01:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.190218
- Title: Redefining Generalization in Visual Domains: A Two-Axis Framework for Fake Image Detection with FusionDetect
- Title(参考訳): 視覚領域における一般化の再定義:FusionDetectを用いた2軸画像検出フレームワーク
- Authors: Amirtaha Amanzadi, Zahra Dehghanian, Hamid Beigy, Hamid R. Rabiee,
- Abstract要約: 本稿では,OmniGenベンチマークを用いて,現実的な条件下での検出器性能の評価を行う。
また、一般化の両ベクトルに対処する新しい手法FusionDetectを導入する。
我々の実験では、FusionDetectは新しい最先端技術を提供するだけでなく、OmniGenの精度も4.48%向上している。
- 参考スコア(独自算出の注目度): 19.97092710696699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of generative models has made it increasingly crucial to develop detectors that can reliably detect synthetic images. Although most of the work has now focused on cross-generator generalization, we argue that this viewpoint is too limited. Detecting synthetic images involves another equally important challenge: generalization across visual domains. To bridge this gap,we present the OmniGen Benchmark. This comprehensive evaluation dataset incorporates 12 state-of-the-art generators, providing a more realistic way of evaluating detector performance under realistic conditions. In addition, we introduce a new method, FusionDetect, aimed at addressing both vectors of generalization. FusionDetect draws on the benefits of two frozen foundation models: CLIP & Dinov2. By deriving features from both complementary models,we develop a cohesive feature space that naturally adapts to changes in both thecontent and design of the generator. Our extensive experiments demonstrate that FusionDetect delivers not only a new state-of-the-art, which is 3.87% more accurate than its closest competitor and 6.13% more precise on average on established benchmarks, but also achieves a 4.48% increase in accuracy on OmniGen,along with exceptional robustness to common image perturbations. We introduce not only a top-performing detector, but also a new benchmark and framework for furthering universal AI image detection. The code and dataset are available at http://github.com/amir-aman/FusionDetect
- Abstract(参考訳): 生成モデルの急速な発展により、合成画像を確実に検出できる検出器の開発がますます重要になっている。
現在、ほとんどの研究はクロスジェネレータの一般化に焦点が当てられているが、この観点は限定的すぎると論じている。
合成画像の検出には、視覚領域をまたいだ一般化という、同様に重要な課題が伴う。
このギャップを埋めるために、私たちはOmniGen Benchmarkを紹介します。
この総合的な評価データセットには12の最先端のジェネレータが含まれており、現実的な条件下で検出器の性能を評価するためのより現実的な方法を提供する。
さらに、一般化の両ベクトルに対処することを目的とした新しい手法FusionDetectを導入する。
FusionDetectは、CLIPとDinov2という2つの凍結基盤モデルの利点を生かしている。
相補的モデルの両方から特徴を導出することにより、生成器のコンテントと設計の両方に自然に適応する凝集性特徴空間を開発する。
我々の大規模な実験では、FusionDetectは新しい最先端技術を提供するだけでなく、最も近い競合製品よりも3.87%正確であり、確立されたベンチマークの平均では6.13%正確であると同時に、OmniGenでは4.48%の精度向上を実現している。
我々は、トップパフォーマンス検出器だけでなく、普遍的なAI画像検出を強化するための新しいベンチマークとフレームワークも導入する。
コードとデータセットはhttp://github.com/amir-aman/FusionDetectで入手できる。
関連論文リスト
- CO-SPY: Combining Semantic and Pixel Features to Detect Synthetic Images by AI [58.35348718345307]
実際の画像とAI生成画像を区別する現在の取り組みには、一般化が欠如している可能性がある。
既存のセマンティック機能を強化した新しいフレームワークCo-Spyを提案する。
また、5つの実画像データセットと22の最先端生成モデルからなる包括的データセットであるCo-Spy-Benchを作成します。
論文 参考訳(メタデータ) (2025-03-24T01:59:29Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - D$^3$: Scaling Up Deepfake Detection by Learning from Discrepancy [29.919663502808575]
既存の文献は、目に見えない発電機上でのディープフェイク検出の一般化能力を強調している。
この研究は、より一般化と堅牢性のある普遍的なディープフェイク検出システムに向けた一歩である。
論文 参考訳(メタデータ) (2024-04-06T10:45:02Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - A Dual Attentive Generative Adversarial Network for Remote Sensing Image
Change Detection [6.906936669510404]
本稿では,高分解能なリモートセンシング画像変化検出タスクを実現するために,二重注意生成対向ネットワークを提案する。
DAGANフレームワークは、85.01%がIoU、91.48%がF1スコアであり、LEVIRデータセットの先進的な手法よりもパフォーマンスが良い。
論文 参考訳(メタデータ) (2023-10-03T08:26:27Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Fusing Global and Local Features for Generalized AI-Synthesized Image
Detection [31.35052580048599]
画像全体からのグローバル空間情報と,新しいパッチ選択モジュールによって選択されたパッチからの局所的な情報的特徴を結合する2分岐モデルを設計する。
さまざまなオブジェクトと解像度を持つ19のモデルで合成された非常に多様なデータセットを収集し、モデルを評価する。
論文 参考訳(メタデータ) (2022-03-26T01:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。