論文の概要: MIRAGE: Towards AI-Generated Image Detection in the Wild
- arxiv url: http://arxiv.org/abs/2508.13223v1
- Date: Sun, 17 Aug 2025 12:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.668467
- Title: MIRAGE: Towards AI-Generated Image Detection in the Wild
- Title(参考訳): AIによる野生の画像検出を目指すMIRAGE
- Authors: Cheng Xia, Manxi Lin, Jiexiang Tan, Xiaoxiong Du, Yang Qiu, Junjun Zheng, Xiangheng Kong, Yuning Jiang, Bo Zheng,
- Abstract要約: AIGI検出器は、Wildのシナリオに一般化できない。
Mirageは、開発中のAIGIの複雑さをエミュレートするために設計された、挑戦的なベンチマークである。
Mirage-R1は2つの段階で訓練されている。
- 参考スコア(独自算出の注目度): 23.48486309050064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The spreading of AI-generated images (AIGI), driven by advances in generative AI, poses a significant threat to information security and public trust. Existing AIGI detectors, while effective against images in clean laboratory settings, fail to generalize to in-the-wild scenarios. These real-world images are noisy, varying from ``obviously fake" images to realistic ones derived from multiple generative models and further edited for quality control. We address in-the-wild AIGI detection in this paper. We introduce Mirage, a challenging benchmark designed to emulate the complexity of in-the-wild AIGI. Mirage is constructed from two sources: (1) a large corpus of Internet-sourced AIGI verified by human experts, and (2) a synthesized dataset created through the collaboration between multiple expert generators, closely simulating the realistic AIGI in the wild. Building on this benchmark, we propose Mirage-R1, a vision-language model with heuristic-to-analytic reasoning, a reflective reasoning mechanism for AIGI detection. Mirage-R1 is trained in two stages: a supervised-fine-tuning cold start, followed by a reinforcement learning stage. By further adopting an inference-time adaptive thinking strategy, Mirage-R1 is able to provide either a quick judgment or a more robust and accurate conclusion, effectively balancing inference speed and performance. Extensive experiments show that our model leads state-of-the-art detectors by 5% and 10% on Mirage and the public benchmark, respectively. The benchmark and code will be made publicly available.
- Abstract(参考訳): AI生成画像(AIGI)の普及は、生成AIの進歩によって推進され、情報セキュリティと公衆信頼に重大な脅威をもたらす。
既存のAIGI検出器は、クリーンな実験室設定のイメージに対して有効だが、現場のシナリオに一般化できない。
のイメージから、複数の生成モデルから派生した現実的なイメージへと変化し、さらに品質管理のために編集される。
本稿では,本論文におけるAIGI検出の在り方について述べる。
私たちは、現在開発中のAIGIの複雑さをエミュレートするために設計された、挑戦的なベンチマークであるMirageを紹介します。
ミラージュは,(1)人間の専門家によって検証されたインターネットソースAIGIの大規模なコーパス,(2)複数の専門家ジェネレータの協調によって作成された合成データセットから構築された。
このベンチマークに基づいて,AIGI検出のための反射的推論機構であるヒューリスティックから解析的推論を備えた視覚言語モデルMirage-R1を提案する。
Mirage-R1は2つの段階で訓練されている。
さらに推論時適応的思考戦略を採用することで、Mirage-R1は迅速な判断またはより堅牢で正確な結論を提供することができ、推論速度と性能を効果的にバランスさせることができる。
大規模な実験により、我々のモデルは、Mirageと公開ベンチマークでそれぞれ5%と10%の最先端検出器を導くことが示された。
ベンチマークとコードは一般公開される予定だ。
関連論文リスト
- Bi-Level Optimization for Self-Supervised AI-Generated Face Detection [56.57881725223548]
両レベル最適化に基づくAI生成顔検出器の自己教師方式を提案する。
我々の検出器は、一級・二級の分類設定において、既存のアプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-07-30T16:38:29Z) - Quality Assessment and Distortion-aware Saliency Prediction for AI-Generated Omnidirectional Images [70.49595920462579]
本研究は,AIGODIの品質評価と歪みを考慮したサリエンシ予測問題について検討する。
BLIP-2モデルに基づく共有エンコーダを用いた2つのモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T05:36:04Z) - IVY-FAKE: A Unified Explainable Framework and Benchmark for Image and Video AIGC Detection [24.67072921674199]
説明可能なマルチモーダルAIGC検出のための,新規で統一された大規模データセットであるIVY-FAKEを紹介する。
Ivy Explainable Detector (IVY-XDETECTOR)を提案する。
我々の統合視覚言語モデルは、複数の画像およびビデオ検出ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-06-01T12:20:22Z) - Fooling the Watchers: Breaking AIGC Detectors via Semantic Prompt Attacks [0.0]
テキスト・トゥ・イメージ(T2I)モデルの台頭は、フォトリアリスティックな人間の肖像画の合成を可能にした。
本研究では,自動対向プロンプト生成フレームワークを提案する。
提案手法は,オープンソースのAIGC検出器と商用AIGC検出器の両方を一貫して回避する,多種多様な制御可能なプロンプトを生成する。
論文 参考訳(メタデータ) (2025-05-29T07:31:17Z) - Is Artificial Intelligence Generated Image Detection a Solved Problem? [10.839070838139401]
AIGIBenchは、最先端AIGI検出器の堅牢性と一般化能力を厳格に評価するために設計されたベンチマークである。
これには、高度な画像生成技術と広く採用されている画像生成技術の両方にまたがる、23の多様なフェイクイメージサブセットが含まれている。
11個の先進検出器の実験では、制御された設定で高い精度が報告されているにもかかわらず、これらの検出器は実世界のデータに大きな性能低下を被ることを示した。
論文 参考訳(メタデータ) (2025-05-18T10:00:39Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
我々はAI生成画像を検出するAI生成画像検出装置(AI生成画像検出装置)を提案する。
AIDEは最先端の手法を+3.5%、+4.6%改善した。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Development of a Dual-Input Neural Model for Detecting AI-Generated Imagery [0.0]
AI生成画像を検出するツールを開発することが重要である。
本稿では、画像とフーリエ周波数分解の両方を入力として扱うデュアルブランチニューラルネットワークアーキテクチャを提案する。
提案モデルでは,CIFAKEデータセットの精度が94%向上し,従来のML手法やCNNよりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T16:42:04Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。