論文の概要: Attribution as Retrieval: Model-Agnostic AI-Generated Image Attribution
- arxiv url: http://arxiv.org/abs/2603.10583v1
- Date: Wed, 11 Mar 2026 09:40:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.879985
- Title: Attribution as Retrieval: Model-Agnostic AI-Generated Image Attribution
- Title(参考訳): 検索としての属性:モデルに依存しないAI生成画像属性
- Authors: Hongsong Wang, Renxi Cheng, Chaolei Han, Jie Gui,
- Abstract要約: 本研究は,AI生成画像の帰属をインスタンス検索問題として定式化し,新たなパラダイムを提案する。
LIDA(Low-bIt-plane-based Deepfake Attribution)と呼ばれる,効率的なモデルに依存しないフレームワークを提案する。
実験により、LIDAは、ゼロショットおよび少数ショット設定下で、ディープフェイク検出と画像属性の両方の最先端性能を達成することが示された。
- 参考スコア(独自算出の注目度): 24.28021197076691
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid advancement of AIGC technologies, image forensics will encounter unprecedented challenges. Traditional methods are incapable of dealing with increasingly realistic images generated by rapidly evolving image generation techniques. To facilitate the identification of AI-generated images and the attribution of their source models, generative image watermarking and AI-generated image attribution have emerged as key research focuses in recent years. However, existing methods are model-dependent, requiring access to the generative models and lacking generality and scalability to new and unseen generators. To address these limitations, this work presents a new paradigm for AI-generated image attribution by formulating it as an instance retrieval problem instead of a conventional image classification problem. We propose an efficient model-agnostic framework, called Low-bIt-plane-based Deepfake Attribution (LIDA). The input to LIDA is produced by Low-Bit Fingerprint Generation module, while the training involves Unsupervised Pre-Training followed by subsequent Few-Shot Attribution Adaptation. Comprehensive experiments demonstrate that LIDA achieves state-of-the-art performance for both Deepfake detection and image attribution under zero- and few-shot settings. The code is at https://github.com/hongsong-wang/LIDA
- Abstract(参考訳): AIGC技術の急速な進歩により、画像鑑定は前例のない課題に直面することになる。
従来の手法では、急速に進化する画像生成技術によって生成される現実的なイメージに対処できない。
近年,AI生成画像の識別を容易にするため,生成画像透かしやAI生成画像の属性が重要視されている。
しかし、既存の手法はモデルに依存しており、生成モデルへのアクセスが必要であり、新規で目に見えないジェネレータに対する汎用性とスケーラビリティが欠如している。
これらの制約に対処するため、従来の画像分類問題ではなく、インスタンス検索問題として定式化することで、AI生成画像帰属の新しいパラダイムを提案する。
本稿では,Low-bIt-plane-based Deepfake Attribution (LIDA) と呼ばれる,効率的なモデルに依存しないフレームワークを提案する。
LIDAへの入力は低ビット・フィンガープリント・ジェネレーション・モジュールによって作成され、トレーニングには教師なし事前訓練とその後のFew-Shot Attribution Adaptationが含まれる。
総合的な実験により、LIDAは、ゼロショットおよび少数ショット設定下で、ディープフェイク検出と画像帰属の両方に対して最先端のパフォーマンスを達成することを示した。
コードはhttps://github.com/hongsong-wang/LIDAにある。
関連論文リスト
- Detecting AI-Generated Images via Distributional Deviations from Real Images [6.615773227400183]
ファインチューニング中に生成モデル固有のパターンを含むテクスチャ領域をマスクするテクスチャ・アウェア・マスキング(TAM)機構を導入する。
我々の手法は最小限の画像しか調整されず、既存の手法よりも大幅に優れており、2つのデータセットの平均精度は98.2%と94.6%に達する。
論文 参考訳(メタデータ) (2026-01-07T05:00:13Z) - A Watermark for Auto-Regressive Image Generation Models [50.599325258178254]
画像生成モデル用に明示的に設計された歪みのない透かし法であるC-reweightを提案する。
C-reweightは画像の忠実性を維持しながら再起動ミスマッチを緩和する。
論文 参考訳(メタデータ) (2025-06-13T00:15:54Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
我々はAI生成画像を検出するAI生成画像検出装置(AI生成画像検出装置)を提案する。
AIDEは最先端の手法を+3.5%、+4.6%改善した。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Active Generation for Image Classification [45.93535669217115]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。