論文の概要: Discretely Indexed Flows
- arxiv url: http://arxiv.org/abs/2204.01361v1
- Date: Mon, 4 Apr 2022 10:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 22:34:21.235372
- Title: Discretely Indexed Flows
- Title(参考訳): 離散インデックス付き流れ
- Authors: Elouan Argouarc'h, Fran\c{c}ois Desbouvries, Eric Barat, Eiji
Kawasaki, Thomas Dautremer
- Abstract要約: 本稿では,変分推定問題の解法として離散インデックスフロー(DIF)を提案する。
DIFは正規化フロー(NF)の拡張として構築され、決定論的輸送は離散的にインデックス付けされる。
これらは、トラクタブル密度と単純なサンプリングスキームの両方の利点があり、変分推論(VI)と変分密度推定(VDE)の二重問題に利用できる。
- 参考スコア(独自算出の注目度): 1.0079626733116611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we propose Discretely Indexed flows (DIF) as a new tool for
solving variational estimation problems. Roughly speaking, DIF are built as an
extension of Normalizing Flows (NF), in which the deterministic transport
becomes stochastic, and more precisely discretely indexed. Due to the discrete
nature of the underlying additional latent variable, DIF inherit the good
computational behavior of NF: they benefit from both a tractable density as
well as a straightforward sampling scheme, and can thus be used for the dual
problems of Variational Inference (VI) and of Variational density estimation
(VDE). On the other hand, DIF can also be understood as an extension of mixture
density models, in which the constant mixture weights are replaced by flexible
functions. As a consequence, DIF are better suited for capturing distributions
with discontinuities, sharp edges and fine details, which is a main advantage
of this construction. Finally we propose a methodology for constructiong DIF in
practice, and see that DIF can be sequentially cascaded, and cascaded with NF.
- Abstract(参考訳): 本稿では,変分推定問題の解法として離散インデックスフロー(DIF)を提案する。
概して、DIFは正規化フロー(NF)の拡張として構築され、決定論的輸送が確率的になり、より正確に離散的にインデックス付けされる。
基礎となる追加の潜在変数の離散的性質から、difはnfのよい計算挙動を継承している:それらは扱いやすい密度と単純なサンプリングスキームの両方の恩恵を受け、従って変分推論 (vi) と変分密度推定 (vde) の二重問題に使うことができる。
一方、difは、一定の混合重みを柔軟な関数に置き換える混合密度モデルの延長としても理解することができる。
その結果、difは不連続、鋭いエッジ、細かいディテールを持つ分布を捉えるのに適しており、この構成の主な利点となっている。
最後に、実際に構成g dif の手法を提案し、dif を逐次カスケードし、nf でカスケードできることを示す。
関連論文リスト
- Entropy-Informed Weighting Channel Normalizing Flow [7.751853409569806]
正規化および機能依存の$mathttShuffle$演算を提案し,それをバニラマルチスケールアーキテクチャに統合する。
このような操作はエントロピー増加方向の変数を誘導するので、$mathttShuffle$演算をemphEntropy-Informed Weighting Channel Normalizing Flow (EIW-Flow)と呼ぶNFを参照する。
論文 参考訳(メタデータ) (2024-07-06T04:46:41Z) - PINF: Continuous Normalizing Flows for Physics-Constrained Deep Learning [8.000355537589224]
本稿では,連続正規化フローの新たな拡張である物理インフォームド正規化フロー(PINF)を紹介する。
メッシュフリーかつ因果フリーな本手法は,高次元時間依存性と定常状態Fokker-Planck方程式を効率的に解ける。
論文 参考訳(メタデータ) (2023-09-26T15:38:57Z) - Learning Discretized Neural Networks under Ricci Flow [51.36292559262042]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Matching Normalizing Flows and Probability Paths on Manifolds [57.95251557443005]
連続正規化フロー (Continuous Normalizing Flows, CNFs) は、常微分方程式(ODE)を解くことによって、先行分布をモデル分布に変換する生成モデルである。
我々は,CNFが生成する確率密度パスと目標確率密度パスとの間に生じる新たな分岐系であるPPDを最小化して,CNFを訓練することを提案する。
PPDの最小化によって得られたCNFは、既存の低次元多様体のベンチマークにおいて、その可能性とサンプル品質が得られることを示す。
論文 参考訳(メタデータ) (2022-07-11T08:50:19Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Moser Flow: Divergence-based Generative Modeling on Manifolds [49.04974733536027]
Moser Flow (MF) は連続正規化フロー(CNF)ファミリーにおける新しい生成モデルのクラスである
MFは、訓練中にODEソルバを介して呼び出しやバックプロパゲートを必要としない。
一般曲面からのサンプリングにおけるフローモデルの利用を初めて実演する。
論文 参考訳(メタデータ) (2021-08-18T09:00:24Z) - Variational Inference with Continuously-Indexed Normalizing Flows [29.95927906900098]
連続インデクシングフロー(CIF)は,近年,様々な密度推定タスクにおけるベースライン正規化フローの改善を実現している。
そこで我々は,CIFを,表現性後部近似を定式化し,訓練するための補助的変分推論手法の一部として用いる方法を示す。
論文 参考訳(メタデータ) (2020-07-10T15:00:04Z) - Stochastic Normalizing Flows [52.92110730286403]
微分方程式(SDE)を用いた最大推定と変分推論のための正規化フロー(VI)を導入する。
粗い経路の理論を用いて、基礎となるブラウン運動は潜在変数として扱われ、近似され、神経SDEの効率的な訓練を可能にする。
これらのSDEは、与えられたデータセットの基盤となる分布からサンプリングする効率的なチェーンを構築するために使用することができる。
論文 参考訳(メタデータ) (2020-02-21T20:47:55Z) - Learning Likelihoods with Conditional Normalizing Flows [54.60456010771409]
条件正規化フロー(CNF)はサンプリングと推論において効率的である。
出力空間写像に対する基底密度が入力 x 上で条件づけられた CNF について、条件密度 p(y|x) をモデル化する。
論文 参考訳(メタデータ) (2019-11-29T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。