論文の概要: Adversarial network training using higher-order moments in a modified
Wasserstein distance
- arxiv url: http://arxiv.org/abs/2210.03354v1
- Date: Fri, 7 Oct 2022 06:56:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:16:00.103766
- Title: Adversarial network training using higher-order moments in a modified
Wasserstein distance
- Title(参考訳): 修正ワッサーシュタイン距離における高次モーメントを用いた対向ネットワークトレーニング
- Authors: Oliver Serang
- Abstract要約: GAN(Generative-Adversarial Network)は、圧縮された潜在空間におけるサンプルデータによく似たデータを生成するために用いられる。
ワッサーシュタイン計量は二項交叉エントロピーの代替として使われ、より数値的に安定なGANを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative-adversarial networks (GANs) have been used to produce data closely
resembling example data in a compressed, latent space that is close to
sufficient for reconstruction in the original vector space. The Wasserstein
metric has been used as an alternative to binary cross-entropy, producing more
numerically stable GANs with greater mode covering behavior. Here, a
generalization of the Wasserstein distance, using higher-order moments than the
mean, is derived. Training a GAN with this higher-order Wasserstein metric is
demonstrated to exhibit superior performance, even when adjusted for slightly
higher computational cost. This is illustrated generating synthetic antibody
sequences.
- Abstract(参考訳): generative-adversarial networks (gans) は、元のベクトル空間の再構成に十分に近い圧縮された潜在空間の例データによく似たデータを生成するために用いられる。
ワッサーシュタイン計量は二項交叉エントロピーの代替として用いられ、より数値的に安定なGANをより大きなモード被覆挙動で生成する。
ここで、平均よりも高次モーメントを用いたワッサーシュタイン距離の一般化が導出される。
この高次ワッサーシュタイン計量を用いてGANを訓練すると、わずかに高い計算コストで調整しても優れた性能を示すことが示される。
これは合成抗体配列を生成する。
関連論文リスト
- Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Adversarial Likelihood Estimation With One-Way Flows [44.684952377918904]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成することができるが、サンプル周辺の確率密度を見積もることはできない。
提案手法は, より高速に収束し, 類似したアーキテクチャでGANに匹敵するサンプル品質を生成し, 一般的に使用されるデータセットの過度な適合を回避し, トレーニングデータのスムーズな低次元潜在表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T10:26:29Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Hierarchical Sliced Wasserstein Distance [27.12983497199479]
スライスされたワッサースタイン(SW)距離は、次元の呪いに悩まされることなく、多数のサポーターにスケールすることができる。
サポート数の効率性にもかかわらず、スライスされたワッサーシュタインを推定するには、高次元の設定において比較的多くの投影が必要である。
ボトルネック投影と呼ばれる少数の投影を線形かつランダムに組み合わせて投影を導出することを提案する。
次に、階層スライクド・ワッサースタイン距離(HSW)と呼ばれる測度間の新しい測度へのアプローチを定式化する。
論文 参考訳(メタデータ) (2022-09-27T17:46:15Z) - Wasserstein Iterative Networks for Barycenter Estimation [80.23810439485078]
生成モデルを用いて連続測度のワッサーシュタイン2バリセンターを近似するアルゴリズムを提案する。
有名人の顔のデータセットに基づいて、バリセンタアルゴリズムの定量的評価に使用できるAve, celeba!データセットを構築した。
論文 参考訳(メタデータ) (2022-01-28T16:59:47Z) - Understanding Entropic Regularization in GANs [5.448283690603358]
We study the influence of regularization on the learned solution of Wasserstein distance。
エントロピー正則化は解のスパース化を促進するが、ワッサーシュタイン距離をシンクホルン発散に置き換えると、非正規化解が回復する。
これらの正則化手法は,大規模な分布に対して経験的データから学習したジェネレータの品質を向上させることができると結論付けている。
論文 参考訳(メタデータ) (2021-11-02T06:08:16Z) - Conditional Versus Adversarial Euler-based Generators For Time Series [2.2344764434954256]
オイラー離散化に基づく時系列の新しい生成モデルを提案する。
テストでは、オイラーの離散化とワッサーシュタイン距離の使用により、提案されたGANと(よりかなり)CEGENが、最先端のTime Series GAN生成より優れていることを示す。
論文 参考訳(メタデータ) (2021-02-10T08:18:35Z) - Augmented Sliced Wasserstein Distances [55.028065567756066]
拡張スライスされたワッサーシュタイン距離(ASWD)と呼ばれる新しい距離測定法を提案する。
ASWDは、ニューラルネットワークによってパラメータ化された高次元超曲面への最初のマッピングサンプルによって構成される。
数値的な結果から、ASWDは、合成問題と実世界の問題の両方において、他のワッサーシュタイン変種を著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2020-06-15T23:00:08Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - Nested-Wasserstein Self-Imitation Learning for Sequence Generation [158.19606942252284]
分布意味マッチングのためのネスト・ワッサーシュタイン距離の概念を提案する。
ネストされたワッサーシュタインの自己想像学習フレームワークを開発し、歴史ある高次列を利用するようモデルに奨励する。
論文 参考訳(メタデータ) (2020-01-20T02:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。