論文の概要: So-Fake: Benchmarking and Explaining Social Media Image Forgery Detection
- arxiv url: http://arxiv.org/abs/2505.18660v1
- Date: Sat, 24 May 2025 11:53:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.576345
- Title: So-Fake: Benchmarking and Explaining Social Media Image Forgery Detection
- Title(参考訳): So-Fake:ソーシャルメディアの画像偽造検出のベンチマークと説明
- Authors: Zhenglin Huang, Tianxiao Li, Xiangtai Li, Haiquan Wen, Yiwei He, Jiangning Zhang, Hao Fei, Xi Yang, Xiaowei Huang, Bei Peng, Guangliang Cheng,
- Abstract要約: So-Fake-Setは、200万以上の高品質な画像、多様な生成源、35の最先端生成モデルを用いて合成された画像を備えたソーシャルメディア指向のデータセットである。
本稿では,高精度な偽造検出,高精度な位置推定,解釈可能な視覚論理による説明可能な推論に強化学習を利用する高度な視覚言語フレームワークであるSo-Fake-R1を提案する。
- 参考スコア(独自算出の注目度): 47.150375457774935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in AI-powered generative models have enabled the creation of increasingly realistic synthetic images, posing significant risks to information integrity and public trust on social media platforms. While robust detection frameworks and diverse, large-scale datasets are essential to mitigate these risks, existing academic efforts remain limited in scope: current datasets lack the diversity, scale, and realism required for social media contexts, while detection methods struggle with generalization to unseen generative technologies. To bridge this gap, we introduce So-Fake-Set, a comprehensive social media-oriented dataset with over 2 million high-quality images, diverse generative sources, and photorealistic imagery synthesized using 35 state-of-the-art generative models. To rigorously evaluate cross-domain robustness, we establish a novel and large-scale (100K) out-of-domain benchmark (So-Fake-OOD) featuring synthetic imagery from commercial models explicitly excluded from the training distribution, creating a realistic testbed for evaluating real-world performance. Leveraging these resources, we present So-Fake-R1, an advanced vision-language framework that employs reinforcement learning for highly accurate forgery detection, precise localization, and explainable inference through interpretable visual rationales. Extensive experiments show that So-Fake-R1 outperforms the second-best method, with a 1.3% gain in detection accuracy and a 4.5% increase in localization IoU. By integrating a scalable dataset, a challenging OOD benchmark, and an advanced detection framework, this work establishes a new foundation for social media-centric forgery detection research. The code, models, and datasets will be released publicly.
- Abstract(参考訳): AIを利用した生成モデルの最近の進歩は、ますます現実的な合成画像の作成を可能にし、情報完全性やソーシャルメディアプラットフォームに対する公的な信頼に重大なリスクをもたらしている。
堅牢な検出フレームワークと多様な大規模データセットはこれらのリスクを軽減するために不可欠であるが、既存の学術的取り組みはスコープに限られている。
このギャップを埋めるために、我々は、200万以上の高品質な画像、多様な生成源、35の最先端生成モデルを用いて合成されたフォトリアリスティックな画像を含む、総合的なソーシャルメディア指向のデータセットであるSo-Fake-Setを紹介した。
クロスドメインロバスト性を厳格に評価するために,トレーニング分布から明示的に除外された商用モデルからの合成画像を含む,新規で大規模(100K)領域外ベンチマーク(So-Fake-OOD)を構築し,実世界のパフォーマンスを評価するための現実的なテストベッドを作成する。
これらの資源を活用し,高精度な偽造検出,高精度な局所化,解釈可能な視覚的有理性による説明可能な推論に強化学習を利用する高度な視覚言語フレームワークであるSo-Fake-R1を提案する。
So-Fake-R1は検出精度が1.3%向上し、局所化IoUは4.5%向上した。
スケーラブルなデータセット、挑戦的なOODベンチマーク、高度な検出フレームワークを統合することで、ソーシャルメディア中心の偽造検出研究の新たな基盤を確立する。
コード、モデル、データセットが公開される。
関連論文リスト
- Is Artificial Intelligence Generated Image Detection a Solved Problem? [10.839070838139401]
AIGIBenchは、最先端AIGI検出器の堅牢性と一般化能力を厳格に評価するために設計されたベンチマークである。
これには、高度な画像生成技術と広く採用されている画像生成技術の両方にまたがる、23の多様なフェイクイメージサブセットが含まれている。
11個の先進検出器の実験では、制御された設定で高い精度が報告されているにもかかわらず、これらの検出器は実世界のデータに大きな性能低下を被ることを示した。
論文 参考訳(メタデータ) (2025-05-18T10:00:39Z) - AI-GenBench: A New Ongoing Benchmark for AI-Generated Image Detection [9.540547388707987]
Ai-GenBenchは、現実のシナリオにおけるAI生成イメージの堅牢な検出の必要性に対処するために設計された、新しいベンチマークである。
Ai-GenBenchは、明確な評価ルールと制御された拡張戦略を確立することにより、検出方法とスケーラブルなソリューションの有意義な比較を可能にする。
論文 参考訳(メタデータ) (2025-04-29T15:41:13Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - HFMF: Hierarchical Fusion Meets Multi-Stream Models for Deepfake Detection [4.908389661988192]
HFMFは総合的な2段階のディープフェイク検出フレームワークである。
視覚変換器と畳み込みネットを階層的特徴融合機構を通じて統合する。
私たちのアーキテクチャは、多様なデータセットベンチマークで優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2025-01-10T00:20:29Z) - SIDA: Social Media Image Deepfake Detection, Localization and Explanation with Large Multimodal Model [48.547599530927926]
ソーシャルメディア上で共有される合成画像は、広範囲の聴衆を誤解させ、デジタルコンテンツに対する信頼を損なう可能性がある。
ソーシャルメディア画像検出データセット(SID-Set)を紹介する。
本稿では,SIDA という画像深度検出,局所化,説明の枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-05T16:12:25Z) - Towards Realistic Data Generation for Real-World Super-Resolution [58.99206459754721]
RealDGenは、現実世界の超解像のために設計された教師なし学習データ生成フレームワークである。
我々は,コンテンツ分解脱結合拡散モデルに統合されたコンテンツと劣化抽出戦略を開発する。
実験により、RealDGenは、現実世界の劣化を反映する大規模で高品質なペアデータを生成するのに優れていることが示された。
論文 参考訳(メタデータ) (2024-06-11T13:34:57Z) - Recognize Any Regions [55.76437190434433]
RegionSpotは、ローカライゼーション基盤モデルから位置認識ローカライゼーション知識と、ViLモデルからのセマンティック情報を統合する。
オープンワールドオブジェクト認識の実験では、私たちのRereaSpotは、以前の代替よりも大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-11-02T16:31:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。