論文の概要: Fingerprints of Generative Models in the Frequency Domain
- arxiv url: http://arxiv.org/abs/2307.15977v1
- Date: Sat, 29 Jul 2023 13:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 18:27:02.227934
- Title: Fingerprints of Generative Models in the Frequency Domain
- Title(参考訳): 周波数領域における生成モデルの指紋
- Authors: Tianyun Yang, Juan Cao, Danding Wang, Chang Xu
- Abstract要約: 既存の研究では、CNNベースの生成モデルが生成された画像にユニークな指紋を残すことが確認されている。
周波数分布と格子状パターンの相違点をスペクトル上に示す。
これらの知見を利用して低コストな合成モデルを開発し、実際の生成モデルで観測される周波数パターンをエミュレートする画像を生成する。
得られた指紋抽出装置は,GAN,VAE,フロー,拡散などの実際のCNNベース生成モデルの検証,識別,解析において,優れた転写性を示す。
- 参考スコア(独自算出の注目度): 23.081943844811764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is verified in existing works that CNN-based generative models leave
unique fingerprints on generated images. There is a lack of analysis about how
they are formed in generative models. Interpreting network components in the
frequency domain, we derive sources for frequency distribution and grid-like
pattern discrepancies exhibited on the spectrum. These insights are leveraged
to develop low-cost synthetic models, which generate images emulating the
frequency patterns observed in real generative models. The resulting
fingerprint extractor pre-trained on synthetic data shows superior
transferability in verifying, identifying, and analyzing the relationship of
real CNN-based generative models such as GAN, VAE, Flow, and diffusion.
- Abstract(参考訳): 既存の研究では、CNNベースの生成モデルは生成された画像にユニークな指紋を残すことが確認されている。
生成モデルでどのように形成されるかは分析されていない。
周波数領域のネットワーク成分を解釈し,周波数分布とスペクトルに現れる格子状パターンの相違点を導出する。
これらの知見を利用して低コストな合成モデルを開発し、実際の生成モデルで観測される周波数パターンをエミュレートする画像を生成する。
得られた指紋抽出装置は,GAN,VAE,フロー,拡散などの実際のCNNベース生成モデルの検証,識別,解析において,優れた転写性を示す。
関連論文リスト
- Neural Network Diffusion [50.85251415173792]
拡散モデルは画像生成やビデオ生成において顕著な成功を収めた。
本研究は拡散モデルにも適用可能であることを示す。
高性能なニューラルネットワークパラメータを生成する。
論文 参考訳(メタデータ) (2024-02-20T16:59:03Z) - Analyzing Neural Network-Based Generative Diffusion Models through
Convex Optimization [54.01594785269913]
拡散モデルは画像、ビデオ、オーディオ生成に広く使われている。
スコアベース拡散モデルでは,入力データ分布のスコア関数を推定する必要がある。
この研究は、ニューラルネットワークベースの拡散モデルが漸近的でない環境で何を学ぶかを理解するのに寄与する。
論文 参考訳(メタデータ) (2024-02-03T00:20:25Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Intriguing properties of synthetic images: from generative adversarial
networks to diffusion models [19.448196464632]
実際の画像と偽画像を区別する上で,どの画像の特徴がより優れているかを知ることが重要である。
本稿では, 実画像と生成画像の最も法学的に関係した特徴を発見することを目的とした, 異なる家系の多数の画像生成装置の系統的研究について報告する。
論文 参考訳(メタデータ) (2023-04-13T11:13:19Z) - Extracting Training Data from Diffusion Models [77.11719063152027]
拡散モデルはトレーニングデータから個々の画像を記憶し,生成時に出力することを示す。
生成とフィルタのパイプラインを用いて、最先端のモデルから数千以上のトレーニング例を抽出する。
さまざまな設定で何百もの拡散モデルをトレーニングし、モデリングとデータ決定の違いがプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-30T18:53:09Z) - Diffusion Models in Vision: A Survey [80.82832715884597]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - Learning Robust Representations Of Generative Models Using Set-Based
Artificial Fingerprints [14.191129493685212]
既存の手法はサンプル分布を通してモデル間の距離を近似する。
我々は、生成モデルの表現として、ユニークな痕跡(いわゆる「人工指紋」)を考える。
セットエンコーディングとコントラスト学習に基づく新しい学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-04T23:20:07Z) - on the effectiveness of generative adversarial network on anomaly
detection [1.6244541005112747]
GANは、実際のトレーニング分布を特定するために、これらのモデルのリッチなコンテキスト情報に依存している。
本稿では,自動エンコーダとGANを組み合わせた新しい教師なしモデルを提案する。
識別器の内部表現と生成器の視覚表現の線形結合と、オートエンコーダの符号化表現とを組み合わせて、提案した異常スコアを定義する。
論文 参考訳(メタデータ) (2021-12-31T16:35:47Z) - Symbolic Music Generation with Diffusion Models [4.817429789586127]
本論文では,前訓練された可変オートエンコーダの連続潜空間における離散領域をパラメータ化することにより,連続データに対する拡散モデルを訓練する手法を提案する。
同じ連続埋め込み上で動作する自己回帰型言語モデルと比較して,強い無条件生成とポストホック条件付インフィル結果を示す。
論文 参考訳(メタデータ) (2021-03-30T05:48:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。