論文の概要: FUSE: Unifying Spectral and Semantic Cues for Robust AI-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2512.21695v1
- Date: Thu, 25 Dec 2025 14:38:39 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:02:38.320026
- Title: FUSE: Unifying Spectral and Semantic Cues for Robust AI-Generated Image Detection
- Title(参考訳): FUSE:ロバストAI生成画像検出のためのスペクトルとセマンティックキューの統合
- Authors: Md. Zahid Hossain, Most. Sharmin Sultana Samu, Md. Kamrozzaman Bhuiyan, Farhad Uz Zaman, Md. Rakibul Islam,
- Abstract要約: FUSEは、Fast Fourier Transformから抽出されたスペクトル特徴とCLIPのビジョンエンコーダから得られたセマンティック特徴を組み合わせたハイブリッドシステムである。
GenImageデータセットの平均精度は91.36%、テストされたすべてのジェネレータの平均精度は88.71%、平均精度は94.96%である。
- 参考スコア(独自算出の注目度): 0.2446672595462589
- License:
- Abstract: The fast evolution of generative models has heightened the demand for reliable detection of AI-generated images. To tackle this challenge, we introduce FUSE, a hybrid system that combines spectral features extracted through Fast Fourier Transform with semantic features obtained from the CLIP's Vision encoder. The features are fused into a joint representation and trained progressively in two stages. Evaluations on GenImage, WildFake, DiTFake, GPT-ImgEval and Chameleon datasets demonstrate strong generalization across multiple generators. Our FUSE (Stage 1) model demonstrates state-of-the-art results on the Chameleon benchmark. It also attains 91.36% mean accuracy on the GenImage dataset, 88.71% accuracy across all tested generators, and a mean Average Precision of 94.96%. Stage 2 training further improves performance for most generators. Unlike existing methods, which often perform poorly on high-fidelity images in Chameleon, our approach maintains robustness across diverse generators. These findings highlight the benefits of integrating spectral and semantic features for generalized detection of images generated by AI.
- Abstract(参考訳): 生成モデルの急速な進化により、AI生成画像の信頼性検出に対する需要が高まった。
この課題に対処するために、Fast Fourier Transformから抽出したスペクトル特徴とCLIPのビジョンエンコーダから得られた意味特徴を組み合わせたハイブリッドシステムであるFUSEを紹介する。
これらの特徴は共同表現に融合され、2段階で段階的に訓練される。
GenImage、WildFake、DiTFake、GPT-ImgEval、Chameleonデータセットの評価は、複数のジェネレータにまたがる強力な一般化を示している。
我々のFUSE(Stage 1)モデルはChameleonベンチマークで最先端の結果を示す。
また、GenImageデータセットの平均精度は91.36%、テストされたすべてのジェネレータの平均精度は88.71%、平均精度は94.96%である。
ステージ2のトレーニングは、ほとんどのジェネレータのパフォーマンスをさらに向上させる。
チャメレオンの高忠実度画像でよく用いられる既存の手法とは異なり、我々の手法は多種多様なジェネレータ間の堅牢性を維持している。
これらの知見は、AIが生成した画像の一般化検出にスペクトルと意味的特徴を統合する利点を浮き彫りにした。
関連論文リスト
- Scaling Up AI-Generated Image Detection via Generator-Aware Prototypes [15.99138549265524]
GAPL(Generator-Aware Prototype Learning)は、構造化学習パラダイムで表現を制約するフレームワークである。
GAPLは最先端の性能を達成し、多様なGANおよび拡散型ジェネレータにおいて優れた検出精度を示す。
論文 参考訳(メタデータ) (2025-12-15T04:58:08Z) - Self-Supervised AI-Generated Image Detection: A Camera Metadata Perspective [80.10217707456046]
カメラメタデータを利用したAI生成画像検出のための自己教師型アプローチを提案する。
分類型EXIFタグを分類することにより,撮影画像のみに特徴抽出器を訓練する。
我々の検出器は、電界中のサンプルに対して強力な一般化と、一般的な良性イメージの摂動に対する堅牢性を提供する。
論文 参考訳(メタデータ) (2025-12-05T11:53:18Z) - CINEMAE: Leveraging Frozen Masked Autoencoders for Cross-Generator AI Image Detection [25.84217122259626]
CINEMAEはテキスト検出法の中核となる原則を視覚領域に適用する。
我々は、安定拡散v1.4のみをトレーニングし、GenImageベンチマークの8つの未知のジェネレータに対して95%以上の精度を達成した。
このことは、文脈条件の再構成の不確実性が、AIGC検出のための堅牢で転送可能な信号を提供することを示している。
論文 参考訳(メタデータ) (2025-11-09T11:05:45Z) - Redefining Generalization in Visual Domains: A Two-Axis Framework for Fake Image Detection with FusionDetect [19.97092710696699]
本稿では,OmniGenベンチマークを用いて,現実的な条件下での検出器性能の評価を行う。
また、一般化の両ベクトルに対処する新しい手法FusionDetectを導入する。
我々の実験では、FusionDetectは新しい最先端技術を提供するだけでなく、OmniGenの精度も4.48%向上している。
論文 参考訳(メタデータ) (2025-10-07T10:01:32Z) - Bi-Level Optimization for Self-Supervised AI-Generated Face Detection [56.57881725223548]
両レベル最適化に基づくAI生成顔検出器の自己教師方式を提案する。
我々の検出器は、一級・二級の分類設定において、既存のアプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-07-30T16:38:29Z) - CO-SPY: Combining Semantic and Pixel Features to Detect Synthetic Images by AI [58.35348718345307]
実際の画像とAI生成画像を区別する現在の取り組みには、一般化が欠如している可能性がある。
既存のセマンティック機能を強化した新しいフレームワークCo-Spyを提案する。
また、5つの実画像データセットと22の最先端生成モデルからなる包括的データセットであるCo-Spy-Benchを作成します。
論文 参考訳(メタデータ) (2025-03-24T01:59:29Z) - Generalizable AI-Generated Image Detection Based on Fractal Self-Similarity in the Spectrum [38.302088844940556]
スペクトルのフラクタル自己相似性に基づく新しい検出法を提案する。
本稿では,AI生成画像が周期的拡張と低域通過フィルタリングによってフラクタル様のスペクトル成長を示すことを示す。
提案手法は, 異なる発電機間で異なるスペクトル特性の影響を緩和し, 未知モデルからの画像の検出性能を向上させる。
論文 参考訳(メタデータ) (2025-03-11T14:37:06Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。