論文の概要: Learning High-Dimensional Distributions with Latent Neural Fokker-Planck
Kernels
- arxiv url: http://arxiv.org/abs/2105.04538v1
- Date: Mon, 10 May 2021 17:42:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:12:46.313682
- Title: Learning High-Dimensional Distributions with Latent Neural Fokker-Planck
Kernels
- Title(参考訳): 潜時ニューラルフォッカー・プランクカーネルを用いた高次元分布の学習
- Authors: Yufan Zhou, Changyou Chen, Jinhui Xu
- Abstract要約: 低次元潜在空間におけるフォッカー・プランク方程式の解法として問題を定式化する新しい手法を導入する。
提案モデルでは,潜在分散モーフィング,ジェネレータ,パラメータ化Fokker-Planckカーネル関数からなる。
- 参考スコア(独自算出の注目度): 67.81799703916563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning high-dimensional distributions is an important yet challenging
problem in machine learning with applications in various domains. In this
paper, we introduce new techniques to formulate the problem as solving
Fokker-Planck equation in a lower-dimensional latent space, aiming to mitigate
challenges in high-dimensional data space. Our proposed model consists of
latent-distribution morphing, a generator and a parameterized Fokker-Planck
kernel function. One fascinating property of our model is that it can be
trained with arbitrary steps of latent distribution morphing or even without
morphing, which makes it flexible and as efficient as Generative Adversarial
Networks (GANs). Furthermore, this property also makes our latent-distribution
morphing an efficient plug-and-play scheme, thus can be used to improve
arbitrary GANs, and more interestingly, can effectively correct failure cases
of the GAN models. Extensive experiments illustrate the advantages of our
proposed method over existing models.
- Abstract(参考訳): 高次元分布の学習は、さまざまな領域で応用される機械学習において重要な課題である。
本稿では,高次元データ空間における課題を軽減すべく,低次元潜在空間におけるfokker-planck方程式の解法として問題を定式化する新しい手法を提案する。
提案モデルでは,潜在分散モーフィング,ジェネレータ,パラメータ化Fokker-Planckカーネル関数からなる。
このモデルの興味深い特性の1つは、潜在分布モーフィングの任意のステップで、あるいはモーフィングなしでも訓練できることであり、これは生成的敵ネットワーク(gans)と同じくらい柔軟で効率的である。
さらに、この特性により、潜在分布の変形を効率的なプラグ・アンド・プレイ方式とし、任意のGANを改善するために使用することができ、より興味深いことに、GANモデルの障害ケースを効果的に修正することができる。
拡張実験は,提案手法の既存モデルに対する利点を実証するものである。
関連論文リスト
- DiffHybrid-UQ: Uncertainty Quantification for Differentiable Hybrid
Neural Modeling [4.76185521514135]
本稿では,ハイブリッドニューラル微分可能モデルにおける有効かつ効率的な不確実性伝播と推定のための新しい手法DiffHybrid-UQを提案する。
具体的には,データノイズとてんかんの不確かさから生じるアレタリック不確かさと,モデル形状の相違やデータ空間のばらつきから生じるエピステマティック不確かさの両方を効果的に識別し,定量化する。
論文 参考訳(メタデータ) (2023-12-30T07:40:47Z) - Generative Neural Fields by Mixtures of Neural Implicit Functions [43.27461391283186]
本稿では,暗黙的ベースネットワークの線形結合によって表現される生成的ニューラルネットワークを学習するための新しいアプローチを提案する。
提案アルゴリズムは,メタラーニングや自動デコーディングのパラダイムを採用することにより,暗黙のニューラルネットワーク表現とその係数を潜在空間で学習する。
論文 参考訳(メタデータ) (2023-10-30T11:41:41Z) - Generative Modeling with Phase Stochastic Bridges [52.919600985186996]
拡散モデル(DM)は、連続入力のための最先端の生成モデルを表す。
我々はtextbfphase space dynamics に基づく新しい生成モデリングフレームワークを提案する。
我々のフレームワークは、動的伝播の初期段階において、現実的なデータポイントを生成する能力を示す。
論文 参考訳(メタデータ) (2023-10-11T18:38:28Z) - A Metaheuristic for Amortized Search in High-Dimensional Parameter
Spaces [0.0]
本稿では,特徴インフォームド変換から次元還元を実現するメタヒューリスティックを提案する。
DR-FFITは、高次元空間における勾配自由パラメータ探索を容易にする効率的なサンプリング戦略を実装している。
実験データから,DR-FFITは,確立したメタヒューリスティックスに対するランダム検索とシミュレート・アニーリングの性能を向上させることが示された。
論文 参考訳(メタデータ) (2023-09-28T14:25:14Z) - Deep Networks as Denoising Algorithms: Sample-Efficient Learning of
Diffusion Models in High-Dimensional Graphical Models [22.353510613540564]
生成モデルにおけるディープニューラルネットワークによるスコア関数の近似効率について検討する。
楽譜関数はしばしば変分推論法を用いてグラフィカルモデルでよく近似される。
深層ニューラルネットワークによってスコア関数が学習されるとき,拡散に基づく生成モデルに縛られた効率的なサンプル複雑性を提供する。
論文 参考訳(メタデータ) (2023-09-20T15:51:10Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。