論文の概要: Regeneration Based Training-free Attribution of Fake Images Generated by
Text-to-Image Generative Models
- arxiv url: http://arxiv.org/abs/2403.01489v1
- Date: Sun, 3 Mar 2024 11:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 21:04:47.389657
- Title: Regeneration Based Training-free Attribution of Fake Images Generated by
Text-to-Image Generative Models
- Title(参考訳): テキストから画像への生成モデルから生成した偽画像のトレーニングフリー帰属
- Authors: Meiling Li, Zhenxing Qian, Xinpeng Zhang
- Abstract要約: そこで本研究では,テキスト・ツー・イメージ・モデルによって生成された偽画像をソース・モデルに属性付けするためのトレーニング不要な手法を提案する。
テスト画像と候補画像の類似性を計算し、ランキングすることにより、画像のソースを決定することができる。
- 参考スコア(独自算出の注目度): 39.33821502730661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-image generative models have recently garnered significant attention
due to their ability to generate images based on prompt descriptions. While
these models have shown promising performance, concerns have been raised
regarding the potential misuse of the generated fake images. In response to
this, we have presented a simple yet effective training-free method to
attribute fake images generated by text-to-image models to their source models.
Given a test image to be attributed, we first inverse the textual prompt of the
image, and then put the reconstructed prompt into different candidate models to
regenerate candidate fake images. By calculating and ranking the similarity of
the test image and the candidate images, we can determine the source of the
image. This attribution allows model owners to be held accountable for any
misuse of their models. Note that our approach does not limit the number of
candidate text-to-image generative models. Comprehensive experiments reveal
that (1) Our method can effectively attribute fake images to their source
models, achieving comparable attribution performance with the state-of-the-art
method; (2) Our method has high scalability ability, which is well adapted to
real-world attribution scenarios. (3) The proposed method yields satisfactory
robustness to common attacks, such as Gaussian blurring, JPEG compression, and
Resizing. We also analyze the factors that influence the attribution
performance, and explore the boost brought by the proposed method as a plug-in
to improve the performance of existing SOTA. We hope our work can shed some
light on the solutions to addressing the source of AI-generated images, as well
as to prevent the misuse of text-to-image generative models.
- Abstract(参考訳): テキスト・ツー・イメージ生成モデルは最近, 素早い記述に基づく画像生成能力に注目が集まっている。
これらのモデルは有望な性能を示したが、生成された偽画像の潜在的な誤用に関する懸念が持ち上がった。
そこで本研究では,テキスト対画像モデルから生成した偽画像をソースモデルに分類する,単純かつ効果的なトレーニングフリーな手法を提案する。
原因となるテスト画像が与えられた場合、まず画像のテキスト的プロンプトを反転させ、その後、再構成されたプロンプトを異なる候補モデルに挿入して、候補の偽画像を再生します。
テスト画像と候補画像の類似度を計算してランク付けすることにより、画像のソースを決定することができる。
この属性により、モデル所有者はモデルの誤用に対して責任を負うことができる。
提案手法は,候補となるテキスト・ツー・イメージ生成モデルの数を制限するものではない。
総合的な実験により,(1)偽画像をソースモデルに効果的にアトリビュートし,最先端の手法と同等のアトリビューション性能を実現すること,(2)実世界のアトリビューションシナリオによく適合した高いスケーラビリティ能力を有すること,などが明らかになった。
(3)提案手法は,ガウス的ぼかし,JPEG圧縮,リサイズなど,一般的な攻撃に対して良好なロバスト性が得られる。
また, 帰属性能に影響を与える要因を分析し, 提案手法がプラグインとしてもたらした向上要因を検討し, 既存のsomaの性能を向上させる。
われわれの研究は、AI生成画像のソースに対処するソリューションに光を当て、テキストから画像への生成モデルの誤用を防ぐことを願っている。
関連論文リスト
- Can We Generate Images with CoT? Let's Verify and Reinforce Image Generation Step by Step [77.86514804787622]
CoT(Chain-of-Thought)推論は、複雑な理解タスクに取り組むために大規模なモデルで広く研究されている。
自己回帰画像生成を促進するために,CoT推論の可能性について,初めて包括的調査を行った。
本稿では,自動回帰画像生成に特化したPARMとPARM++を提案する。
論文 参考訳(メタデータ) (2025-01-23T18:59:43Z) - Generalizable Origin Identification for Text-Guided Image-to-Image Diffusion Models [39.234894330025114]
テキストインプロンプトに基づく画像の翻訳において,テキスト誘導画像から画像への拡散モデルが優れている。
これは、テキスト誘導画像-画像拡散モデル(ID$2$)の原点識別タスクの導入を動機付けます。
ID$2$の直接的な解決策は、クエリと参照イメージの両方から機能を抽出し比較するために、特別なディープ埋め込みモデルをトレーニングすることである。
論文 参考訳(メタデータ) (2025-01-04T20:34:53Z) - Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
合成画像の非学習をシミュレートして効率的なデータ帰属法を提案する。
次に,学習過程の終了後に有意な損失偏差を伴う訓練画像を特定し,これらを影響力のあるものとしてラベル付けする。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Which Model Generated This Image? A Model-Agnostic Approach for Origin Attribution [23.974575820244944]
本研究では,生成した画像の起点属性を現実的に検討する。
ゴールは、ある画像がソースモデルによって生成されるかどうかを確認することである。
OCC-CLIPはCLIPをベースとしたワンクラス分類のためのフレームワークである。
論文 参考訳(メタデータ) (2024-04-03T12:54:16Z) - Active Generation for Image Classification [45.93535669217115]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - A Single Simple Patch is All You Need for AI-generated Image Detection [19.541645669791023]
生成モデルは、画像をよりリアルにするために、リッチなテクスチャでパッチを生成することに集中する傾向がある。
本稿では,偽画像の識別に単一単純パッチのノイズパターンを利用する手法を提案する。
提案手法は,公開ベンチマーク上での最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-02-02T03:50:45Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - WOUAF: Weight Modulation for User Attribution and Fingerprinting in Text-to-Image Diffusion Models [32.29120988096214]
本稿では,生成画像に責任を負うモデルフィンガープリントの新たなアプローチを提案する。
提案手法は,ユーザ固有のデジタル指紋に基づいて生成モデルを修正し,ユーザへ遡ることができるコンテンツにユニークな識別子を印字する。
論文 参考訳(メタデータ) (2023-06-07T19:44:14Z) - If at First You Don't Succeed, Try, Try Again: Faithful Diffusion-based
Text-to-Image Generation by Selection [53.320946030761796]
拡散ベースのテキスト・トゥ・イメージ(T2I)モデルは、テキスト・プロンプトへの忠実さを欠く可能性がある。
大規模なT2I拡散モデルは通常想定されるよりも忠実であり、複雑なプロンプトに忠実な画像を生成することができることを示す。
本稿では,テキストプロンプトの候補画像を生成するパイプラインを導入し,自動スコアリングシステムにより最適な画像を選択する。
論文 参考訳(メタデータ) (2023-05-22T17:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。