論文の概要: How to Trace Latent Generative Model Generated Images without Artificial Watermark?
- arxiv url: http://arxiv.org/abs/2405.13360v1
- Date: Wed, 22 May 2024 05:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 01:14:40.786002
- Title: How to Trace Latent Generative Model Generated Images without Artificial Watermark?
- Title(参考訳): 人工透かしのない潜在生成モデル生成画像の追跡法
- Authors: Zhenting Wang, Vikash Sehwag, Chen Chen, Lingjuan Lyu, Dimitris N. Metaxas, Shiqing Ma,
- Abstract要約: 潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
- 参考スコア(独自算出の注目度): 88.04880564539836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent generative models (e.g., Stable Diffusion) have become more and more popular, but concerns have arisen regarding potential misuse related to images generated by these models. It is, therefore, necessary to analyze the origin of images by inferring if a particular image was generated by a specific latent generative model. Most existing methods (e.g., image watermark and model fingerprinting) require extra steps during training or generation. These requirements restrict their usage on the generated images without such extra operations, and the extra required operations might compromise the quality of the generated images. In this work, we ask whether it is possible to effectively and efficiently trace the images generated by a specific latent generative model without the aforementioned requirements. To study this problem, we design a latent inversion based method called LatentTracer to trace the generated images of the inspected model by checking if the examined images can be well-reconstructed with an inverted latent input. We leverage gradient based latent inversion and identify a encoder-based initialization critical to the success of our approach. Our experiments on the state-of-the-art latent generative models, such as Stable Diffusion, show that our method can distinguish the images generated by the inspected model and other images with a high accuracy and efficiency. Our findings suggest the intriguing possibility that today's latent generative generated images are naturally watermarked by the decoder used in the source models. Code: https://github.com/ZhentingWang/LatentTracer.
- Abstract(参考訳): 遅延生成モデル(例えば、安定拡散)はますます普及しているが、これらのモデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
したがって、特定の画像が特定の潜伏生成モデルによって生成されたかどうかを推測することにより、画像の起源を分析する必要がある。
既存のほとんどの方法(画像透かしやモデル指紋など)は、トレーニングや生成に余分なステップを必要とする。
これらの要件は、そのような余分な操作なしで生成された画像の使用を制限するものであり、追加の要求された操作は生成された画像の品質を損なう可能性がある。
本研究では、上記の要件を満たさずに、特定の潜在生成モデルによって生成された画像を効果的かつ効率的に追跡できるかどうかを問う。
そこで本研究では,LatentTracerと呼ばれる遅延インバージョンに基づく手法を設計し,検査した画像が逆潜時入力で適切に再構成可能かどうかを確認することで,検査対象モデルの生成画像をトレースする。
我々は勾配に基づく潜伏反転を活用し、エンコーダに基づく初期化を同定し、我々のアプローチの成功に不可欠である。
安定拡散のような最先端の潜伏生成モデルに関する実験により,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることが示唆された。
以上の結果から,現在の遅延生成生成画像は,ソースモデルで使用されるデコーダによって自然にウォーターマークされている可能性が示唆された。
コード:https://github.com/ZhentingWang/LatentTracer。
関連論文リスト
- Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Regeneration Based Training-free Attribution of Fake Images Generated by
Text-to-Image Generative Models [39.33821502730661]
そこで本研究では,テキスト・ツー・イメージ・モデルによって生成された偽画像をソース・モデルに属性付けするためのトレーニング不要な手法を提案する。
テスト画像と候補画像の類似性を計算し、ランキングすることにより、画像のソースを決定することができる。
論文 参考訳(メタデータ) (2024-03-03T11:55:49Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Alteration-free and Model-agnostic Origin Attribution of Generated
Images [28.34437698362946]
画像生成モデルの誤用が懸念されている。
特定の画像が特定のモデルによって生成されたかどうかを推測することにより、画像の起源を分析する必要がある。
論文 参考訳(メタデータ) (2023-05-29T01:35:37Z) - Securing Deep Generative Models with Universal Adversarial Signature [69.51685424016055]
深い生成モデルは、その潜在的な誤用のために社会に脅威をもたらす。
本稿では,任意の事前学習型生成モデルに普遍的逆数シグネチャを注入することを提案する。
提案手法は, FFHQ と ImageNet のデータセット上で, 様々な最先端生成モデルを用いて検証する。
論文 参考訳(メタデータ) (2023-05-25T17:59:01Z) - Deep Image Fingerprint: Towards Low Budget Synthetic Image Detection and Model Lineage Analysis [8.777277201807351]
本研究では,実際の画像と区別できない画像の新たな検出方法を提案する。
本手法は、既知の生成モデルから画像を検出し、微調整された生成モデル間の関係を確立することができる。
本手法は,Stable Diffusion とMidversa が生成した画像に対して,最先端の事前学習検出手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-19T20:31:38Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。