論文の概要: Tensorizing flows: a tool for variational inference
- arxiv url: http://arxiv.org/abs/2305.02460v1
- Date: Wed, 3 May 2023 23:42:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 17:34:44.776500
- Title: Tensorizing flows: a tool for variational inference
- Title(参考訳): テンソル化フロー:変分推論のためのツール
- Authors: Yuehaw Khoo, Michael Lindsey, Hongli Zhao
- Abstract要約: 本稿では,ガウス参照をテンソルネットワークを介して構築した参照分布に置き換える正規化フローの拡張を提案する。
本研究では, 複雑な変分推論タスクにおいて, フローとテンソルネットワークを組み合わせることで, どちらか一方のツールを使わずに得られる結果を改善することができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fueled by the expressive power of deep neural networks, normalizing flows
have achieved spectacular success in generative modeling, or learning to draw
new samples from a distribution given a finite dataset of training samples.
Normalizing flows have also been applied successfully to variational inference,
wherein one attempts to learn a sampler based on an expression for the
log-likelihood or energy function of the distribution, rather than on data. In
variational inference, the unimodality of the reference Gaussian distribution
used within the normalizing flow can cause difficulties in learning multimodal
distributions. We introduce an extension of normalizing flows in which the
Gaussian reference is replaced with a reference distribution that is
constructed via a tensor network, specifically a matrix product state or tensor
train. We show that by combining flows with tensor networks on difficult
variational inference tasks, we can improve on the results obtained by using
either tool without the other.
- Abstract(参考訳): 深層ニューラルネットワークの表現力によって実現された正規化フローは、生成モデリングや、トレーニングサンプルの有限データセットが与えられた分布から新しいサンプルを抽出する学習において、目覚ましい成功を収めた。
正規化フローは変分推論にもうまく適用されており、データではなく、分布のログやエネルギー関数の式に基づいてサンプルを学習しようとする。
変分推論では、正規化フロー内で使用される基準ガウス分布の一様性は多様分布の学習に困難をもたらす。
本稿では,ガウス参照をテンソルネットワーク,特に行列積状態あるいはテンソルトレインを介して構築した参照分布に置き換える正規化フローの拡張を提案する。
難しい変分推論タスクにおいて, 流れとテンソルネットワークを組み合わせることで, どちらのツールも使用せずに得られる結果を改善することができることを示す。
関連論文リスト
- Generative Diffusion From An Action Principle [0.0]
スコアマッチングは、物理でよく用いられるようなアクション原理から導出できることを示す。
この洞察を用いて、異なる拡散モデルのクラス間の関係を実証する。
論文 参考訳(メタデータ) (2023-10-06T18:00:00Z) - Arbitrary Distributions Mapping via SyMOT-Flow: A Flow-based Approach Integrating Maximum Mean Discrepancy and Optimal Transport [2.7309692684728617]
本稿では,2つの未知分布からの標本間の対称最大平均誤差を最小化することにより,可逆変換を訓練するSyMOT-Flowと呼ばれる新しいモデルを提案する。
結果として得られる変換はより安定で正確なサンプル生成をもたらす。
論文 参考訳(メタデータ) (2023-08-26T08:39:16Z) - Out-of-distribution detection using normalizing flows on the data
manifold [3.725042082196983]
本研究では,正規化フローを用いた多様体学習が分布外検出に及ぼす影響について検討した。
本研究では,正規化フローとして知られる確率ベースモデルの分布外検出能力を,多様体学習により向上させることを示す。
論文 参考訳(メタデータ) (2023-08-26T07:35:16Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Detecting and Mitigating Mode-Collapse for Flow-based Sampling of
Lattice Field Theories [6.222204646855336]
格子場理論の文脈における正規化流れのモード崩壊の結果について検討する。
本稿では,モード崩壊の度合いを定量化し,その結果の偏りを導出する指標を提案する。
論文 参考訳(メタデータ) (2023-02-27T19:00:22Z) - Resampling Base Distributions of Normalizing Flows [0.0]
学習された拒絶サンプリングに基づいて,フローを正規化するためのベース分布を導入する。
ログライクリフの最大化と逆Kulback-Leibler分散の最適化の両方を用いて、適切な学習アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-10-29T14:44:44Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z) - Learning Likelihoods with Conditional Normalizing Flows [54.60456010771409]
条件正規化フロー(CNF)はサンプリングと推論において効率的である。
出力空間写像に対する基底密度が入力 x 上で条件づけられた CNF について、条件密度 p(y|x) をモデル化する。
論文 参考訳(メタデータ) (2019-11-29T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。