論文の概要: ManiFPT: Defining and Analyzing Fingerprints of Generative Models
- arxiv url: http://arxiv.org/abs/2402.10401v2
- Date: Thu, 29 Feb 2024 08:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 17:45:40.329885
- Title: ManiFPT: Defining and Analyzing Fingerprints of Generative Models
- Title(参考訳): ManiFPT: 生成モデルの指紋の定義と解析
- Authors: Hae Jin Song, Mahyar Khayatkhoei, Wael AbdAlmageed
- Abstract要約: 生成モデルにおけるアーティファクトと指紋の定義を形式化する。
我々は実際にそれらを計算するためのアルゴリズムを提案する。
指紋の構造について検討し,異なる設計選択が生成過程に与える影響を非常に予測できることを示した。
- 参考スコア(独自算出の注目度): 16.710998621718193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have shown that generative models leave traces of their
underlying generative process on the generated samples, broadly referred to as
fingerprints of a generative model, and have studied their utility in detecting
synthetic images from real ones. However, the extend to which these
fingerprints can distinguish between various types of synthetic image and help
identify the underlying generative process remain under-explored. In
particular, the very definition of a fingerprint remains unclear, to our
knowledge. To that end, in this work, we formalize the definition of artifact
and fingerprint in generative models, propose an algorithm for computing them
in practice, and finally study its effectiveness in distinguishing a large
array of different generative models. We find that using our proposed
definition can significantly improve the performance on the task of identifying
the underlying generative process from samples (model attribution) compared to
existing methods. Additionally, we study the structure of the fingerprints, and
observe that it is very predictive of the effect of different design choices on
the generative process.
- Abstract(参考訳): 近年の研究では、生成モデルが生成したサンプルに生成過程の痕跡を残していることが示されており、実画像からの合成画像の検出に有用性が研究されている。
しかし、これらの指紋が様々な種類の合成画像と区別し、基礎となる生成過程を特定するのに役立つ拡張は未検討のままである。
特に、指紋の定義は、私たちの知る限り、まだ不明です。
そこで本研究では,生成モデルにおけるアーティファクトと指紋の定義を定式化し,それを実際に計算するためのアルゴリズムを提案し,最終的に,多数の異なる生成モデルの識別におけるその効果について検討する。
提案手法を用いることで,既存の手法と比較して,サンプル(モデル属性)から生成過程を識別するタスクの性能が大幅に向上することがわかった。
さらに, 指紋の構造について検討し, 異なる設計選択が生成過程に与える影響を非常に予測していることを確認した。
関連論文リスト
- How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Model Synthesis for Zero-Shot Model Attribution [26.835046772924258]
生成モデルは、芸術、デザイン、人間とコンピュータの相互作用などの様々な分野を形作っている。
実世界の生成モデルの指紋パターンを模倣した多数の合成モデルを生成するモデル合成手法を提案する。
実験により, この指紋抽出装置は, 合成モデルのみを訓練し, 様々な実世界の生成モデルに対して, 印象的なゼロショットの一般化を実現することができた。
論文 参考訳(メタデータ) (2023-07-29T13:00:42Z) - Learning Robust Representations Of Generative Models Using Set-Based
Artificial Fingerprints [14.191129493685212]
既存の手法はサンプル分布を通してモデル間の距離を近似する。
我々は、生成モデルの表現として、ユニークな痕跡(いわゆる「人工指紋」)を考える。
セットエンコーディングとコントラスト学習に基づく新しい学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-04T23:20:07Z) - Self-supervised GAN Detector [10.963740942220168]
生成モデルは 不正や 破壊 偽ニュースなど 悪意のある目的で悪用される
トレーニング設定外の未確認画像を識別する新しいフレームワークを提案する。
提案手法は,GAN画像の高品質な人工指紋を再構成する人工指紋生成装置から構成する。
論文 参考訳(メタデータ) (2021-11-12T06:19:04Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Reverse Engineering Configurations of Neural Text Generation Models [86.9479386959155]
モデル選択の結果、機械が生成したテキストに現れるアーティファクトの研究は、新しい研究領域である。
我々は、モデリング選択が検出可能なアーティファクトを生成テキストに残すかどうかを確認するために、広範囲な診断テストを実行する。
我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。
論文 参考訳(メタデータ) (2020-04-13T21:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。