論文の概要: Gradient Boosted Normalizing Flows
- arxiv url: http://arxiv.org/abs/2002.11896v4
- Date: Sat, 17 Oct 2020 20:09:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 07:22:48.628788
- Title: Gradient Boosted Normalizing Flows
- Title(参考訳): 勾配昇降正規化流れ
- Authors: Robert Giaquinto and Arindam Banerjee
- Abstract要約: グラディエントブースト正規化フロー(GBNF)は、勾配上昇を伴う新しいNF成分を加えることで密度をモデル化する。
本稿では,GBNFと変分オートエンコーダを結合させることにより,画像の生成モデルとして,この手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 20.534115114275327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By chaining a sequence of differentiable invertible transformations,
normalizing flows (NF) provide an expressive method of posterior approximation,
exact density evaluation, and sampling. The trend in normalizing flow
literature has been to devise deeper, more complex transformations to achieve
greater flexibility. We propose an alternative: Gradient Boosted Normalizing
Flows (GBNF) model a density by successively adding new NF components with
gradient boosting. Under the boosting framework, each new NF component
optimizes a sample weighted likelihood objective, resulting in new components
that are fit to the residuals of the previously trained components. The GBNF
formulation results in a mixture model structure, whose flexibility increases
as more components are added. Moreover, GBNFs offer a wider, as opposed to
strictly deeper, approach that improves existing NFs at the cost of additional
training---not more complex transformations. We demonstrate the effectiveness
of this technique for density estimation and, by coupling GBNF with a
variational autoencoder, generative modeling of images. Our results show that
GBNFs outperform their non-boosted analog, and, in some cases, produce better
results with smaller, simpler flows.
- Abstract(参考訳): 微分可逆変換の列をチェーンすることで、正規化フロー(NF)は後続近似、正確な密度評価、サンプリングの表現方法を提供する。
フロー文学の正規化のトレンドは、柔軟性を高めるためにより深く、より複雑な変換を考案することであった。
グラディエントブースト正規化フロー (GBNF) は、勾配上昇を伴う新しいNF成分を連続的に付加することにより密度をモデル化する。
boosting frameworkの下では、新しいnfコンポーネントがサンプル重み付けされた度合目標を最適化し、その結果、トレーニング済みのコンポーネントの残差に適合する新しいコンポーネントが生成される。
GBNFの定式化は混合モデル構造となり、より多くのコンポーネントを追加すると柔軟性が増す。
さらに、GBNFは、より深く、より深く、より複雑な変換ではなく、追加のトレーニングコストで既存のNFを改善するアプローチを提供する。
本稿では,gbnfと可変オートエンコーダを結合した画像生成モデルを用いて,密度推定手法の有効性を示す。
その結果,gbnfsは非ブーストアナログよりも優れており,より小さく,より単純なフローでより良い結果が得られた。
関連論文リスト
- Entropy-Informed Weighting Channel Normalizing Flow [7.751853409569806]
正規化および機能依存の$mathttShuffle$演算を提案し,それをバニラマルチスケールアーキテクチャに統合する。
このような操作はエントロピー増加方向の変数を誘導するので、$mathttShuffle$演算をemphEntropy-Informed Weighting Channel Normalizing Flow (EIW-Flow)と呼ぶNFを参照する。
論文 参考訳(メタデータ) (2024-07-06T04:46:41Z) - Transformer Neural Autoregressive Flows [48.68932811531102]
正規化フロー(NF)を用いて密度推定を行う。
我々はトランスフォーマーニューラルオートレグレッシブフロー(T-NAF)と呼ばれる新しいタイプのニューラルフローを定義するためにトランスフォーマーを利用する新しい解を提案する。
論文 参考訳(メタデータ) (2024-01-03T17:51:16Z) - FedNAR: Federated Optimization with Normalized Annealing Regularization [54.42032094044368]
ウェイト崩壊の選択を探索し、ウェイト崩壊値が既存のFLアルゴリズムの収束に有意な影響を及ぼすことを確かめる。
我々は,既存のFLアルゴリズムにシームレスに統合可能なプラグインであるFederated Optimization with Normalized Annealing Regularization (FedNAR)を開発した。
論文 参考訳(メタデータ) (2023-10-04T21:11:40Z) - Taming Hyperparameter Tuning in Continuous Normalizing Flows Using the
JKO Scheme [60.79981399724534]
正規化フロー (NF) は、選択された確率分布を正規分布に変換する写像である。
OTベースのCNFを$alpha$をチューニングすることなく解くアルゴリズムであるJKO-Flowを提案する。
論文 参考訳(メタデータ) (2022-11-30T05:53:21Z) - Discretely Indexed Flows [1.0079626733116611]
本稿では,変分推定問題の解法として離散インデックスフロー(DIF)を提案する。
DIFは正規化フロー(NF)の拡張として構築され、決定論的輸送は離散的にインデックス付けされる。
これらは、トラクタブル密度と単純なサンプリングスキームの両方の利点があり、変分推論(VI)と変分密度推定(VDE)の二重問題に利用できる。
論文 参考訳(メタデータ) (2022-04-04T10:13:43Z) - Moser Flow: Divergence-based Generative Modeling on Manifolds [49.04974733536027]
Moser Flow (MF) は連続正規化フロー(CNF)ファミリーにおける新しい生成モデルのクラスである
MFは、訓練中にODEソルバを介して呼び出しやバックプロパゲートを必要としない。
一般曲面からのサンプリングにおけるフローモデルの利用を初めて実演する。
論文 参考訳(メタデータ) (2021-08-18T09:00:24Z) - Go with the Flows: Mixtures of Normalizing Flows for Point Cloud
Generation and Reconstruction [98.38585659305325]
正規化フロー(NF)は、3Dポイントクラウドのモデリングにおける最先端のパフォーマンスを示している。
この研究は、点雲にNFの混合物を適用することで、それらの表現力を高める。
論文 参考訳(メタデータ) (2021-06-06T14:25:45Z) - Convolutional Normalizing Flows for Deep Gaussian Processes [40.10797051603641]
本稿では、柔軟で任意に複雑でスケーラブルな後方分布を特定するための新しいアプローチを提案する。
新しい畳み込み正規化フロー(CNF)が開発され、時間効率を改善し、層間の依存性を捉える。
経験的評価は、CNF DGPがDGPの最先端近似法より優れていることを示している。
論文 参考訳(メタデータ) (2021-04-17T07:25:25Z) - Learning Likelihoods with Conditional Normalizing Flows [54.60456010771409]
条件正規化フロー(CNF)はサンプリングと推論において効率的である。
出力空間写像に対する基底密度が入力 x 上で条件づけられた CNF について、条件密度 p(y|x) をモデル化する。
論文 参考訳(メタデータ) (2019-11-29T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。