論文の概要: WILD: a new in-the-Wild Image Linkage Dataset for synthetic image attribution
- arxiv url: http://arxiv.org/abs/2504.19595v1
- Date: Mon, 28 Apr 2025 08:58:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.369688
- Title: WILD: a new in-the-Wild Image Linkage Dataset for synthetic image attribution
- Title(参考訳): WILD: 合成画像属性のための新しいWild画像リンクデータセット
- Authors: Pietro Bongini, Sara Mandelli, Andrea Montibeller, Mirko Casu, Orazio Pontorno, Claudio Ragaglia, Luca Zanchetta, Mattia Aquilina, Taiba Majid Wani, Luca Guarnera, Benedetta Tondi, Paolo Bestagini, Irene Amerini, Francesco Denatale, Sebastiano Battiato, Mauro Barni,
- Abstract要約: WILDは、合成画像属性モデルのための強力なトレーニングおよびベンチマークツールを提供するために設計された、新しいWildイメージデータセットである。
データセットは、10の人気のある商用ジェネレータのクローズドなセットと、10の新たなジェネレータのオープンなセットで構成され、現実世界のインザワイルドシナリオをシミュレートする。
WILDは、クローズドおよびオープンなセットの識別と検証、および後処理や敵攻撃に対する堅牢な属性を含む、幅広いタスクにおける属性モデルのベンチマークを可能にする。
- 参考スコア(独自算出の注目度): 23.970540509757953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic image source attribution is an open challenge, with an increasing number of image generators being released yearly. The complexity and the sheer number of available generative techniques, as well as the scarcity of high-quality open source datasets of diverse nature for this task, make training and benchmarking synthetic image source attribution models very challenging. WILD is a new in-the-Wild Image Linkage Dataset designed to provide a powerful training and benchmarking tool for synthetic image attribution models. The dataset is built out of a closed set of 10 popular commercial generators, which constitutes the training base of attribution models, and an open set of 10 additional generators, simulating a real-world in-the-wild scenario. Each generator is represented by 1,000 images, for a total of 10,000 images in the closed set and 10,000 images in the open set. Half of the images are post-processed with a wide range of operators. WILD allows benchmarking attribution models in a wide range of tasks, including closed and open set identification and verification, and robust attribution with respect to post-processing and adversarial attacks. Models trained on WILD are expected to benefit from the challenging scenario represented by the dataset itself. Moreover, an assessment of seven baseline methodologies on closed and open set attribution is presented, including robustness tests with respect to post-processing.
- Abstract(参考訳): 合成画像ソースの属性はオープンな課題であり、年間に多くの画像ジェネレータがリリースされている。
複雑さと利用可能な生成技術の数に加えて、このタスクには様々な性質の高品質なオープンソースデータセットが不足しているため、合成画像ソース属性モデルのトレーニングとベンチマークは非常に困難です。
WILDは、合成画像帰属モデルのための強力なトレーニングおよびベンチマークツールを提供するために設計された、新しいWildイメージリンクデータセットである。
データセットは、アトリビューションモデルのトレーニングベースを構成する10の人気のある商用ジェネレータのクローズドセットと、10の追加ジェネレータのオープンセットで構成されており、現実の世界における実際のシナリオをシミュレートしている。
各ジェネレータは1,000のイメージで表現され、クローズドセットでは1万のイメージ、オープンセットでは1万のイメージが使用される。
画像の半分は、幅広い演算子で後処理される。
WILDは、クローズドおよびオープンなセットの識別と検証、および後処理や敵攻撃に対する堅牢な属性を含む、幅広いタスクにおける属性モデルのベンチマークを可能にする。
WILDでトレーニングされたモデルは、データセット自体が表現する困難なシナリオの恩恵を受けることが期待されている。
さらに, 閉集合および開集合の属性に対する7つのベースライン手法の評価を行い, 後処理に対するロバスト性試験を行った。
関連論文リスト
- A Large-scale AI-generated Image Inpainting Benchmark [11.216906046169683]
本稿では,高品質な塗り絵データセットの作成手法を提案し,それをDiQuID作成に適用する。
DiQuIDは、MS-COCO、RAISE、OpenImagesから78,000個のオリジナル画像から生成された95,000枚のインペイント画像で構成されている。
我々は、最先端の偽造検出手法を用いて包括的なベンチマーク結果を提供し、検出アルゴリズムの評価と改善におけるデータセットの有効性を実証する。
論文 参考訳(メタデータ) (2025-02-10T15:56:28Z) - A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - Are CLIP features all you need for Universal Synthetic Image Origin Attribution? [13.96698277726253]
本研究では,大規模な事前学習基盤モデルの特徴を取り入れたフレームワークを提案し,合成画像のオープンセット起点属性を実現する。
我々は,低データ体制においても,本手法が顕著な帰属性能をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-17T09:54:21Z) - ImagiNet: A Multi-Content Benchmark for Synthetic Image Detection [0.0]
私たちは、写真、絵画、顔、雑多な4つのカテゴリにまたがる200万のサンプルのデータセットであるImagiNetを紹介します。
ImagiNetの合成画像はオープンソースとプロプライエタリの両方のジェネレータで作成され、各コンテントタイプの実際の画像はパブリックデータセットから収集される。
論文 参考訳(メタデータ) (2024-07-29T13:57:24Z) - Toffee: Efficient Million-Scale Dataset Construction for Subject-Driven Text-to-Image Generation [58.09421301921607]
我々は、主観的画像編集と生成のための最初の大規模データセットを構築した。
データセットは、以前の最大のデータセットの5倍のサイズですが、コストは、何万時間も低いです。
論文 参考訳(メタデータ) (2024-06-13T16:40:39Z) - Many-to-many Image Generation with Auto-regressive Diffusion Models [59.5041405824704]
本稿では,与えられた画像集合から関連画像系列を生成可能な多対多画像生成のためのドメイン汎用フレームワークを提案する。
我々は,25個の相互接続された画像を含む12Mの合成マルチイメージサンプルを含む,新しい大規模マルチイメージデータセットMISを提案する。
我々はM2Mを学習し、M2Mは多対多生成のための自己回帰モデルであり、各画像は拡散フレームワーク内でモデル化される。
論文 参考訳(メタデータ) (2024-04-03T23:20:40Z) - Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - OBELICS: An Open Web-Scale Filtered Dataset of Interleaved Image-Text
Documents [122.55393759474181]
我々は、インターリーブされた画像テキスト文書のオープンなWebスケールフィルタリングデータセットであるOBELICSを紹介する。
データセット作成プロセスを説明し、包括的なフィルタリングルールを示し、データセットの内容を分析する。
IDEFICSという名前の9~800億のパラメータのビジョンと言語モデルをトレーニングし、異なるマルチモーダルベンチマークで競合性能を得る。
論文 参考訳(メタデータ) (2023-06-21T14:01:01Z) - Progressive Open Space Expansion for Open-Set Model Attribution [19.985618498466042]
我々は,OSMA(Open-Set Model Attribution)という課題に焦点をあて,既知のモデルに画像を同時に属性付けし,未知のモデルからそれらを識別する。
既存のオープンセット認識(OSR)タスクと比較して、OSMAは既知のモデルと未知のモデルとの区別が視覚的に知覚できないトレースに限られているため、より難しい。
本稿では, 閉集合と同一のセマンティクスを維持しつつ, 異なる認識不能なトレースを埋め込んだオープンセットサンプルをシミュレートした, プログレッシブオープンスペース拡張(POSE)ソリューションを提案する。
論文 参考訳(メタデータ) (2023-03-13T05:53:11Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。