論文の概要: OmniDFA: A Unified Framework for Open Set Synthesis Image Detection and Few-Shot Attribution
- arxiv url: http://arxiv.org/abs/2509.25682v1
- Date: Tue, 30 Sep 2025 02:36:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.986547
- Title: OmniDFA: A Unified Framework for Open Set Synthesis Image Detection and Few-Shot Attribution
- Title(参考訳): OmniDFA: オープンセット合成画像検出とFew-Shot属性の統一フレームワーク
- Authors: Shiyu Wu, Shuyan Li, Jing Li, Jing Liu, Yequan Wang,
- Abstract要約: OmniDFAはAIGIのための新しいフレームワークで、画像の信頼性を評価し、その起源を数ショットで決定する。
OmniFakeは大規模なクラス対応合成画像データセットで、45ドルの異なる生成モデルから117ドルの画像をキュレートする。
実験により、OmniDFAはオープンセット属性に優れた能力を示し、AIGI検出における最先端の一般化性能を達成することが示された。
- 参考スコア(独自算出の注目度): 21.62979058692505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-generated image (AIGI) detection and source model attribution remain central challenges in combating deepfake abuses, primarily due to the structural diversity of generative models. Current detection methods are prone to overfitting specific forgery traits, whereas source attribution offers a robust alternative through fine-grained feature discrimination. However, synthetic image attribution remains constrained by the scarcity of large-scale, well-categorized synthetic datasets, limiting its practicality and compatibility with detection systems. In this work, we propose a new paradigm for image attribution called open-set, few-shot source identification. This paradigm is designed to reliably identify unseen generators using only limited samples, making it highly suitable for real-world application. To this end, we introduce OmniDFA (Omni Detector and Few-shot Attributor), a novel framework for AIGI that not only assesses the authenticity of images, but also determines the synthesis origins in a few-shot manner. To facilitate this work, we construct OmniFake, a large class-aware synthetic image dataset that curates $1.17$ M images from $45$ distinct generative models, substantially enriching the foundational resources for research on both AIGI detection and attribution. Experiments demonstrate that OmniDFA exhibits excellent capability in open-set attribution and achieves state-of-the-art generalization performance on AIGI detection. Our dataset and code will be made available.
- Abstract(参考訳): AI生成画像(AIGI)の検出とソースモデル帰属は、主に生成モデルの構造的多様性のために、ディープフェイクの乱用と戦う上で、依然として中心的な課題である。
現在の検出方法は特定の偽の特徴を過度に適合させる傾向があるが、ソース属性はきめ細かい特徴の識別を通じて堅牢な代替手段を提供する。
しかし、合成画像の属性は、大規模で適切に分類された合成データセットの不足によって制約され、その実用性と検出システムとの互換性が制限されている。
本研究では,オープンセット,少数ショットの音源識別という,画像帰属のための新しいパラダイムを提案する。
このパラダイムは、限られたサンプルのみを使用して、確実に未知のジェネレータを識別するように設計されており、現実世界のアプリケーションに非常に適している。
この目的のために我々は,画像の真正性を評価するだけでなく,合成元を数ショットで決定する,AIGIの新しいフレームワークであるOmniDFA(Omni Detector and Few-shot Attributor)を紹介した。
この作業を円滑にするために、我々は、45ドルの異なる生成モデルから1.17ドルMの画像をキュレートし、AIGI検出と帰属の両方を研究するための基礎的なリソースを実質的に強化する、大規模なクラス対応の合成画像データセットであるOmniFakeを構築した。
実験により、OmniDFAはオープンセット属性に優れた能力を示し、AIGI検出における最先端の一般化性能を達成することが示された。
データセットとコードは利用可能になります。
関連論文リスト
- ForenX: Towards Explainable AI-Generated Image Detection with Multimodal Large Language Models [82.04858317800097]
ForenXは画像の真正性を識別するだけでなく、人間の思考に共鳴する説明を提供する新しい手法である。
ForenXは、強力なマルチモーダル大言語モデル(MLLM)を使用して、法医学的な手がかりを分析し、解釈する。
本稿では,AI生成画像における偽証拠の記述専用のデータセットであるForgReasonを紹介する。
論文 参考訳(メタデータ) (2025-08-02T15:21:26Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - Forensic Self-Descriptions Are All You Need for Zero-Shot Detection, Open-Set Source Attribution, and Clustering of AI-generated Images [8.167678851224121]
従来の手法では、トレーニング中に既知のソースに特有の機能に依存するため、見えないジェネレータに一般化できない。
本稿では,法医学的微細構造を明示的にモデル化する新しい手法を提案する。
この自己記述により、合成画像のゼロショット検出、画像のオープンセットソース属性、および事前知識のないソースに基づくクラスタリングを行うことができる。
論文 参考訳(メタデータ) (2025-03-26T21:34:37Z) - CO-SPY: Combining Semantic and Pixel Features to Detect Synthetic Images by AI [58.35348718345307]
実際の画像とAI生成画像を区別する現在の取り組みには、一般化が欠如している可能性がある。
既存のセマンティック機能を強化した新しいフレームワークCo-Spyを提案する。
また、5つの実画像データセットと22の最先端生成モデルからなる包括的データセットであるCo-Spy-Benchを作成します。
論文 参考訳(メタデータ) (2025-03-24T01:59:29Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Are CLIP features all you need for Universal Synthetic Image Origin Attribution? [13.96698277726253]
本研究では,大規模な事前学習基盤モデルの特徴を取り入れたフレームワークを提案し,合成画像のオープンセット起点属性を実現する。
我々は,低データ体制においても,本手法が顕著な帰属性能をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-17T09:54:21Z) - BOSC: A Backdoor-based Framework for Open Set Synthetic Image Attribution [20.85450451277421]
合成画像属性は、生成モデルによって生成された画像の起源をトレースする問題に対処する。
本稿では,バックドアアタックの概念に依存する,BOSCと呼ばれる合成画像のオープンセット属性の枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-19T09:17:43Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive Learning [22.533225521726116]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語誘導型コントラスト学習を用いた簡易かつ効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。