論文の概要: Generative models with kernel distance in data space
- arxiv url: http://arxiv.org/abs/2009.07327v1
- Date: Tue, 15 Sep 2020 19:11:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:21:22.448933
- Title: Generative models with kernel distance in data space
- Title(参考訳): データ空間におけるカーネル距離を持つ生成モデル
- Authors: Szymon Knop, Marcin Mazur, Przemys{\l}aw Spurek, Jacek Tabor, Igor
Podolak
- Abstract要約: LCWジェネレータはガウスノイズをデータ空間に変換する際に古典的なGANに似ている。
第一に、カーネル測度を用いたオートエンコーダに基づくアーキテクチャは、データの多様体をモデル化するために構築される。
最終モデルを得るために、ガウスからラテンへのラテントトリック写像を提案する。
- 参考スコア(独自算出の注目度): 10.002379593718471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models dealing with modeling a~joint data distribution are
generally either autoencoder or GAN based. Both have their pros and cons,
generating blurry images or being unstable in training or prone to mode
collapse phenomenon, respectively. The objective of this paper is to construct
a~model situated between above architectures, one that does not inherit their
main weaknesses. The proposed LCW generator (Latent Cramer-Wold generator)
resembles a classical GAN in transforming Gaussian noise into data space. What
is of utmost importance, instead of a~discriminator, LCW generator uses kernel
distance. No adversarial training is utilized, hence the name generator. It is
trained in two phases. First, an autoencoder based architecture, using kernel
measures, is built to model a manifold of data. We propose a Latent Trick
mapping a Gaussian to latent in order to get the final model. This results in
very competitive FID values.
- Abstract(参考訳): 共役データ分散のモデル化を扱う生成モデルは、一般にオートエンコーダまたはGANベースである。
どちらも長所と短所があり、ぼやけた画像を生成したり、トレーニング中に不安定になったり、モード崩壊現象を起こしやすい。
本論文の目的は, 上記のアーキテクチャの間に位置するモデルを構築することであり, 主な弱点を継承しないモデルを構築することである。
提案するlcw生成器(latent cramer-wold generator)はガウス雑音をデータ空間に変換する古典的なganに似ている。
lcwジェネレータは、識別器の代わりにカーネル距離を使用する。
敵の訓練は使用せず、そのため名前生成器が使用される。
訓練は2段階で行われる。
まず、カーネル測度を用いたオートエンコーダベースのアーキテクチャを構築し、データの多様体をモデル化する。
最終モデルを得るために,ガウス型を潜在型にマッピングする潜在型トリックを提案する。
これにより、非常に競合的なFID値が得られる。
関連論文リスト
- IFH: a Diffusion Framework for Flexible Design of Graph Generative Models [53.219279193440734]
グラフ生成モデルは,1行にグラフを生成するワンショットモデルと,ノードとエッジの連続的な付加によるグラフを生成するシーケンシャルモデルという,2つの顕著なファミリーに分類される。
本稿では,逐次度を規定するグラフ生成モデルであるInsert-Fill-Halt(IFH)を提案する。
論文 参考訳(メタデータ) (2024-08-23T16:24:40Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Ref-Diff: Zero-shot Referring Image Segmentation with Generative Models [68.73086826874733]
本稿では,画像分割を参照するための新しい参照拡散分割器(Referring Diffusional segmentor, Ref-Diff)を提案する。
提案生成器がなければ、生成モデルだけで既存のSOTAの弱教師付きモデルに匹敵する性能を達成できることを実証する。
このことは、生成モデルがこのタスクに有益であり、より優れたセグメンテーションを参照するために識別モデルを補完できることを示している。
論文 参考訳(メタデータ) (2023-08-31T14:55:30Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Shared Loss between Generators of GANs [7.33811357166334]
生成逆数ネットワークは、入力データの暗黙の確率分布を高精度に再現できる生成モデルである。
伝統的に、GANはジェネレータとディスクリミネーターで構成されており、互いに相互作用して非常にリアルな人工データを生成する。
その結果,GANのトレーニング時間は劇的に短縮され,性能に影響を与えないことがわかった。
論文 参考訳(メタデータ) (2022-11-14T09:47:42Z) - Towards a scalable discrete quantum generative adversarial neural
network [8.134122612459633]
本稿では,バイナリデータを用いた完全量子生成対向ネットワークを提案する。
特に、生成器にノイズ再負荷、識別器に補助量子ビットを組み込んで、表現性を高める。
我々は、Isingモデルの合成データと低エネルギー状態の両方に対して、我々のモデルの表現力を実証的に示す。
論文 参考訳(メタデータ) (2022-09-28T10:42:38Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Riemannian Score-Based Generative Modeling [56.20669989459281]
経験的性能を示すスコアベース生成モデル(SGM)を紹介する。
現在のSGMは、そのデータが平坦な幾何学を持つユークリッド多様体上で支えられているという前提を定めている。
これにより、ロボット工学、地球科学、タンパク質モデリングの応用にこれらのモデルを使用することができない。
論文 参考訳(メタデータ) (2022-02-06T11:57:39Z) - Toward Spatially Unbiased Generative Models [19.269719158344508]
最近の画像生成モデルは顕著な生成性能を示している。
しかし、それらは、空間バイアスと呼ばれるデータセットの強い位置優先を反映している。
生成元は空間的コンテンツを描画するために暗黙的な位置エンコーディングに頼っていると論じる。
論文 参考訳(メタデータ) (2021-08-03T04:13:03Z) - End-to-end Sinkhorn Autoencoder with Noise Generator [10.008055997630304]
本稿では,効率的なデータ収集シミュレーションのためのノイズ発生器を備えた新しいエンド・ツー・エンドのシンクホーンオートエンコーダを提案する。
提案手法は,LHCにおけるALICE実験のZero Degree Calorimetersによるシミュレーションデータの挑戦的データセットにおいて,競合するアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-06-11T18:04:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。