論文の概要: Regeneration Based Training-free Attribution of Fake Images Generated by
Text-to-Image Generative Models
- arxiv url: http://arxiv.org/abs/2403.01489v1
- Date: Sun, 3 Mar 2024 11:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 21:04:47.389657
- Title: Regeneration Based Training-free Attribution of Fake Images Generated by
Text-to-Image Generative Models
- Title(参考訳): テキストから画像への生成モデルから生成した偽画像のトレーニングフリー帰属
- Authors: Meiling Li, Zhenxing Qian, Xinpeng Zhang
- Abstract要約: そこで本研究では,テキスト・ツー・イメージ・モデルによって生成された偽画像をソース・モデルに属性付けするためのトレーニング不要な手法を提案する。
テスト画像と候補画像の類似性を計算し、ランキングすることにより、画像のソースを決定することができる。
- 参考スコア(独自算出の注目度): 39.33821502730661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-image generative models have recently garnered significant attention
due to their ability to generate images based on prompt descriptions. While
these models have shown promising performance, concerns have been raised
regarding the potential misuse of the generated fake images. In response to
this, we have presented a simple yet effective training-free method to
attribute fake images generated by text-to-image models to their source models.
Given a test image to be attributed, we first inverse the textual prompt of the
image, and then put the reconstructed prompt into different candidate models to
regenerate candidate fake images. By calculating and ranking the similarity of
the test image and the candidate images, we can determine the source of the
image. This attribution allows model owners to be held accountable for any
misuse of their models. Note that our approach does not limit the number of
candidate text-to-image generative models. Comprehensive experiments reveal
that (1) Our method can effectively attribute fake images to their source
models, achieving comparable attribution performance with the state-of-the-art
method; (2) Our method has high scalability ability, which is well adapted to
real-world attribution scenarios. (3) The proposed method yields satisfactory
robustness to common attacks, such as Gaussian blurring, JPEG compression, and
Resizing. We also analyze the factors that influence the attribution
performance, and explore the boost brought by the proposed method as a plug-in
to improve the performance of existing SOTA. We hope our work can shed some
light on the solutions to addressing the source of AI-generated images, as well
as to prevent the misuse of text-to-image generative models.
- Abstract(参考訳): テキスト・ツー・イメージ生成モデルは最近, 素早い記述に基づく画像生成能力に注目が集まっている。
これらのモデルは有望な性能を示したが、生成された偽画像の潜在的な誤用に関する懸念が持ち上がった。
そこで本研究では,テキスト対画像モデルから生成した偽画像をソースモデルに分類する,単純かつ効果的なトレーニングフリーな手法を提案する。
原因となるテスト画像が与えられた場合、まず画像のテキスト的プロンプトを反転させ、その後、再構成されたプロンプトを異なる候補モデルに挿入して、候補の偽画像を再生します。
テスト画像と候補画像の類似度を計算してランク付けすることにより、画像のソースを決定することができる。
この属性により、モデル所有者はモデルの誤用に対して責任を負うことができる。
提案手法は,候補となるテキスト・ツー・イメージ生成モデルの数を制限するものではない。
総合的な実験により,(1)偽画像をソースモデルに効果的にアトリビュートし,最先端の手法と同等のアトリビューション性能を実現すること,(2)実世界のアトリビューションシナリオによく適合した高いスケーラビリティ能力を有すること,などが明らかになった。
(3)提案手法は,ガウス的ぼかし,JPEG圧縮,リサイズなど,一般的な攻撃に対して良好なロバスト性が得られる。
また, 帰属性能に影響を与える要因を分析し, 提案手法がプラグインとしてもたらした向上要因を検討し, 既存のsomaの性能を向上させる。
われわれの研究は、AI生成画像のソースに対処するソリューションに光を当て、テキストから画像への生成モデルの誤用を防ぐことを願っている。
関連論文リスト
- Image Regeneration: Evaluating Text-to-Image Model via Generating Identical Image with Multimodal Large Language Models [54.052963634384945]
画像再生タスクを導入し,テキスト・ツー・イメージ・モデルの評価を行う。
我々はGPT4Vを用いて参照画像とT2Iモデルのテキスト入力のギャップを埋める。
また、生成した画像の品質を高めるために、ImageRepainterフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-14T13:52:43Z) - Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Which Model Generated This Image? A Model-Agnostic Approach for Origin Attribution [23.974575820244944]
本研究では,生成した画像の起点属性を現実的に検討する。
ゴールは、ある画像がソースモデルによって生成されるかどうかを確認することである。
OCC-CLIPはCLIPをベースとしたワンクラス分類のためのフレームワークである。
論文 参考訳(メタデータ) (2024-04-03T12:54:16Z) - Active Generation for Image Classification [45.93535669217115]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - A Single Simple Patch is All You Need for AI-generated Image Detection [19.541645669791023]
生成モデルは、画像をよりリアルにするために、リッチなテクスチャでパッチを生成することに集中する傾向がある。
本稿では,偽画像の識別に単一単純パッチのノイズパターンを利用する手法を提案する。
提案手法は,公開ベンチマーク上での最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-02-02T03:50:45Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - WOUAF: Weight Modulation for User Attribution and Fingerprinting in Text-to-Image Diffusion Models [32.29120988096214]
本稿では,生成画像に責任を負うモデルフィンガープリントの新たなアプローチを提案する。
提案手法は,ユーザ固有のデジタル指紋に基づいて生成モデルを修正し,ユーザへ遡ることができるコンテンツにユニークな識別子を印字する。
論文 参考訳(メタデータ) (2023-06-07T19:44:14Z) - If at First You Don't Succeed, Try, Try Again: Faithful Diffusion-based
Text-to-Image Generation by Selection [53.320946030761796]
拡散ベースのテキスト・トゥ・イメージ(T2I)モデルは、テキスト・プロンプトへの忠実さを欠く可能性がある。
大規模なT2I拡散モデルは通常想定されるよりも忠実であり、複雑なプロンプトに忠実な画像を生成することができることを示す。
本稿では,テキストプロンプトの候補画像を生成するパイプラインを導入し,自動スコアリングシステムにより最適な画像を選択する。
論文 参考訳(メタデータ) (2023-05-22T17:59:41Z) - Implementing and Experimenting with Diffusion Models for Text-to-Image
Generation [0.0]
DALL-E 2 と Imagen という2つのモデルでは、画像の単純なテキスト記述から高画質の画像を生成できることが示されている。
テキスト・ツー・イメージのモデルは、トレーニングに必要な膨大な計算リソースと、インターネットから収集された巨大なデータセットを扱う必要がある。
この論文は、これらのモデルが使用するさまざまなアプローチとテクニックをレビューし、それから、テキスト・ツー・イメージ・モデルの独自の実装を提案することで貢献する。
論文 参考訳(メタデータ) (2022-09-22T12:03:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。