論文の概要: Training-free Source Attribution of AI-generated Images via Resynthesis
- arxiv url: http://arxiv.org/abs/2510.24278v1
- Date: Tue, 28 Oct 2025 10:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.023059
- Title: Training-free Source Attribution of AI-generated Images via Resynthesis
- Title(参考訳): 再生によるAI生成画像の訓練不要ソース属性
- Authors: Pietro Bongini, Valentina Molinari, Andrea Costanzo, Benedetta Tondi, Mauro Barni,
- Abstract要約: 画像再生に基づく新しいトレーニングフリーワンショット属性法を提案する。
また、商用およびオープンソースのテキスト・ツー・イメージ・ジェネレータの顔画像からなる合成画像属性のための新しいデータセットも導入する。
- 参考スコア(独自算出の注目度): 15.553070492553298
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Synthetic image source attribution is a challenging task, especially in data scarcity conditions requiring few-shot or zero-shot classification capabilities. We present a new training-free one-shot attribution method based on image resynthesis. A prompt describing the image under analysis is generated, then it is used to resynthesize the image with all the candidate sources. The image is attributed to the model which produced the resynthesis closest to the original image in a proper feature space. We also introduce a new dataset for synthetic image attribution consisting of face images from commercial and open-source text-to-image generators. The dataset provides a challenging attribution framework, useful for developing new attribution models and testing their capabilities on different generative architectures. The dataset structure allows to test approaches based on resynthesis and to compare them to few-shot methods. Results from state-of-the-art few-shot approaches and other baselines show that the proposed resynthesis method outperforms existing techniques when only a few samples are available for training or fine-tuning. The experiments also demonstrate that the new dataset is a challenging one and represents a valuable benchmark for developing and evaluating future few-shot and zero-shot methods.
- Abstract(参考訳): 合成画像ソースの属性は、特に少数ショットやゼロショットの分類機能を必要とするデータの不足状況において、困難なタスクである。
画像再生に基づく新しいトレーニングフリーワンショット属性法を提案する。
解析対象の画像を記述するプロンプトが生成され、すべての候補ソースで画像を再合成する。
画像は、適切な特徴空間において、元の画像に最も近い再生を生成するモデルに起因している。
また、商用およびオープンソースのテキスト・ツー・イメージ・ジェネレータの顔画像からなる合成画像属性のための新しいデータセットも導入する。
このデータセットは、新しい属性モデルを開発し、異なる生成アーキテクチャでそれらの機能をテストするのに有用な、挑戦的な属性フレームワークを提供する。
データセット構造は、再合成に基づいてアプローチをテストし、それらを数ショットのメソッドと比較することを可能にする。
最新の数ショットのアプローチや他のベースラインの結果、提案手法は、トレーニングや微調整に使えるサンプルがほんのわずかしかない場合に、既存の技術よりも優れていることが示されている。
実験はまた、新しいデータセットが挑戦的なものであることも示しており、将来の数ショットおよびゼロショットメソッドの開発と評価に有用なベンチマークを示している。
関連論文リスト
- OmniDFA: A Unified Framework for Open Set Synthesis Image Detection and Few-Shot Attribution [21.62979058692505]
OmniDFAはAIGIのための新しいフレームワークで、画像の信頼性を評価し、その起源を数ショットで決定する。
OmniFakeは大規模なクラス対応合成画像データセットで、45ドルの異なる生成モデルから117ドルの画像をキュレートする。
実験により、OmniDFAはオープンセット属性に優れた能力を示し、AIGI検出における最先端の一般化性能を達成することが示された。
論文 参考訳(メタデータ) (2025-09-30T02:36:40Z) - Attributed Synthetic Data Generation for Zero-shot Domain-specific Image Classification [3.0105723746073]
本稿では,属性付きプロンプトを生成するために,大規模言語モデルを活用するAttrSynを提案する。
2つのきめ細かいデータセットに対するゼロショットドメイン固有の画像分類の実験では、AttrSynが生成した合成画像によるトレーニングがCLIPのゼロショット分類を著しく上回っている。
論文 参考訳(メタデータ) (2025-04-06T14:54:10Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - Explore the Power of Synthetic Data on Few-shot Object Detection [27.26215175101865]
Few-shot Object Detection (FSOD) は、トレーニングのいくつかの例に限って、新しいカテゴリのオブジェクト検出器を拡張することを目的としている。
近年のテキスト・画像生成モデルでは,高品質な画像を生成する上で有望な結果が得られている。
この研究は、最先端のテキスト・ツー・イメージ・ジェネレータから生成された合成画像がFSODタスクにどのように貢献するかを幅広く研究している。
論文 参考訳(メタデータ) (2023-03-23T12:34:52Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Re-Imagen: Retrieval-Augmented Text-to-Image Generator [58.60472701831404]
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
論文 参考訳(メタデータ) (2022-09-29T00:57:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。