論文の概要: MMCGAN: Generative Adversarial Network with Explicit Manifold Prior
- arxiv url: http://arxiv.org/abs/2006.10331v1
- Date: Thu, 18 Jun 2020 07:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 12:41:05.571220
- Title: MMCGAN: Generative Adversarial Network with Explicit Manifold Prior
- Title(参考訳): MMCGAN: 明示的なマニフォールドを持つジェネレーティブ・アドバイサル・ネットワーク
- Authors: Guanhua Zheng, Jitao Sang, Changsheng Xu
- Abstract要約: 本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
- 参考スコア(独自算出の注目度): 78.58159882218378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Network(GAN) provides a good generative framework to
produce realistic samples, but suffers from two recognized issues as mode
collapse and unstable training. In this work, we propose to employ explicit
manifold learning as prior to alleviate mode collapse and stabilize training of
GAN. Since the basic assumption of conventional manifold learning fails in case
of sparse and uneven data distribution, we introduce a new target, Minimum
Manifold Coding (MMC), for manifold learning to encourage simple and unfolded
manifold. In essence, MMC is the general case of the shortest Hamiltonian Path
problem and pursues manifold with minimum Riemann volume. Using the
standardized code from MMC as prior, GAN is guaranteed to recover a simple and
unfolded manifold covering all the training data. Our experiments on both the
toy data and real datasets show the effectiveness of MMCGAN in alleviating mode
collapse, stabilizing training, and improving the quality of generated samples.
- Abstract(参考訳): generative adversarial network(gan)は現実的なサンプルを生成するための優れた生成フレームワークを提供するが、モードの崩壊と不安定なトレーニングという2つの問題に苦しむ。
本研究では,モード崩壊を緩和し,GANのトレーニングを安定化させる前に,明示的な多様体学習を採用することを提案する。
従来の多様体学習の基本前提はスパースおよび不均一なデータ分布の場合に失敗するため,多様体学習のための新たなターゲットである最小多様体符号化(MMC)を導入する。
本質的に、mmc は最も短いハミルトニアン経路問題の一般の場合であり、最小リーマン体積を持つ多様体を追求する。
MMCの標準化されたコードを事前に使用することにより、GANはすべてのトレーニングデータをカバーする単純で展開された多様体を復元することが保証される。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
関連論文リスト
- AdaMerging: Adaptive Model Merging for Multi-Task Learning [68.75885518081357]
本稿では,Adaptive Model Merging (AdaMerging)と呼ばれる革新的な手法を紹介する。
本来のトレーニングデータに頼ることなく、タスクレベルでも階層的にも、モデルマージの係数を自律的に学習することを目指している。
AdaMergingは、現在の最先端のタスク演算のマージ方式と比較すると、パフォーマンスが11%向上している。
論文 参考訳(メタデータ) (2023-10-04T04:26:33Z) - Variational Density Propagation Continual Learning [0.0]
現実世界にデプロイされるディープニューラルネットワーク(DNN)は、定期的にオフ・オブ・ディストリビューション(OoD)データの対象となっている。
本稿では,ベンチマーク連続学習データセットによってモデル化されたデータ分散ドリフトに適応するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-22T21:51:39Z) - Revisiting the Robustness of the Minimum Error Entropy Criterion: A
Transfer Learning Case Study [16.07380451502911]
本稿では,非ガウス雑音に対処する最小誤差エントロピー基準のロバスト性を再考する。
本稿では,分散シフトが一般的である実生活伝達学習回帰タスクの実現可能性と有用性について検討する。
論文 参考訳(メタデータ) (2023-07-17T15:38:11Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Guided Deep Metric Learning [0.9786690381850356]
我々は、ガイドドディープメトリックラーニングと呼ばれる新しいDML手法を提案する。
提案手法は、最大40%の改善まで、より優れた多様体の一般化と表現が可能である。
論文 参考訳(メタデータ) (2022-06-04T17:34:11Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Evolving parametrized Loss for Image Classification Learning on Small
Datasets [1.4685355149711303]
本稿ではメタロスネットワーク(MLN)と呼ばれるパラメタ化損失関数の進化のためのメタラーニング手法を提案する。
本手法では,MLNを識別対象関数として分類学習の枠組みに組み込む。
実験の結果,MLNは古典的クロスエントロピー誤差や平均二乗誤差と比較して,一般化を効果的に改善した。
論文 参考訳(メタデータ) (2021-03-15T10:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。