論文の概要: Marginal Flow: a flexible and efficient framework for density estimation
- arxiv url: http://arxiv.org/abs/2509.26221v1
- Date: Tue, 30 Sep 2025 13:21:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.141545
- Title: Marginal Flow: a flexible and efficient framework for density estimation
- Title(参考訳): Marginal Flow: 密度推定のための柔軟で効率的なフレームワーク
- Authors: Marcello Massimo Negri, Jonathan Aellen, Manuel Jahn, AmirEhsan Khorashadizadeh, Volker Roth,
- Abstract要約: 現在の密度モデリングアプローチは、高価なトレーニング、遅い推論、近似可能性、モード崩壊、アーキテクチャ制約の少なくとも1つの欠点に悩まされている。
これらの制限を完全に克服する、シンプルで強力なフレームワークを提案する。
パラメトリック分布を$q(x|w)$とし、遅延パラメータを$w$とするモデルとして$q_theta(x)$を定義する。
遅延変数$w$を直接最適化する代わりに、学習可能なディストリビューション$q_theta(w)$から$w$をサンプリングしてマージナルフロー(Marginal Flow)と名付けることで、それらをマージライズします。
- 参考スコア(独自算出の注目度): 6.94175385834858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current density modeling approaches suffer from at least one of the following shortcomings: expensive training, slow inference, approximate likelihood, mode collapse or architectural constraints like bijective mappings. We propose a simple yet powerful framework that overcomes these limitations altogether. We define our model $q_\theta(x)$ through a parametric distribution $q(x|w)$ with latent parameters $w$. Instead of directly optimizing the latent variables $w$, our idea is to marginalize them out by sampling $w$ from a learnable distribution $q_\theta(w)$, hence the name Marginal Flow. In order to evaluate the learned density $q_\theta(x)$ or to sample from it, we only need to draw samples from $q_\theta(w)$, which makes both operations efficient. The proposed model allows for exact density evaluation and is orders of magnitude faster than competing models both at training and inference. Furthermore, Marginal Flow is a flexible framework: it does not impose any restrictions on the neural network architecture, it enables learning distributions on lower-dimensional manifolds (either known or to be learned), it can be trained efficiently with any objective (e.g. forward and reverse KL divergence), and it easily handles multi-modal targets. We evaluate Marginal Flow extensively on various tasks including synthetic datasets, simulation-based inference, distributions on positive definite matrices and manifold learning in latent spaces of images.
- Abstract(参考訳): 現在の密度モデリングアプローチは、高額なトレーニング、遅い推論、近似可能性、モード崩壊、または単射写像のようなアーキテクチャ上の制約といった、少なくとも1つの欠点に悩まされている。
これらの制限を完全に克服する、シンプルで強力なフレームワークを提案する。
モデル $q_\theta を定義します。
(x)$ a parametric distribution $q(x|w)$ with latent parameters $w$. (x)$ through a parametric distribution $q(x|w)$
遅延変数を$w$で直接最適化する代わりに、学習可能なディストリビューション$q_\thetaから$w$をサンプリングすることで、それらをマージする、というのが私たちの考えです。
(w)$、したがってMarginal Flowという名前になる。
学習した密度$q_\thetaを評価するために
(x)$またはそれからサンプリングするためには、$q_\thetaのサンプルだけを描く必要があります。
(w)$は、両方の操作を効率よくする。
提案モデルでは, 厳密な密度評価が可能であり, トレーニングと推論の両方において, 競合モデルよりも桁違いに高速である。
さらに、Marginal Flowはフレキシブルなフレームワークである – ニューラルネットワークアーキテクチャに制限を課さず、低次元多様体上の分布(既知のものであれ、学習すべきものであれ)の学習を可能にし、任意の目的(例えば、前方と逆KLの分岐)で効率的にトレーニングすることができ、マルチモーダルなターゲットを容易に扱うことができる。
我々は,合成データセット,シミュレーションベース推論,正定行列上の分布,画像の潜在空間における多様体学習など,様々なタスクにおいて,Marginal Flowを広範囲に評価する。
関連論文リスト
- Simple Semi-supervised Knowledge Distillation from Vision-Language Models via $\mathbf{\texttt{D}}$ual-$\mathbf{\texttt{H}}$ead $\mathbf{\texttt{O}}$ptimization [49.2338910653152]
VLM(Vision-Constrained Model)は、ラベル付きデータが最小限に抑えられたリッチテキスト情報を活用することで、様々なタスクで顕著な成功を収めた。
知識蒸留(KD)は、この問題に対して確立された解決策を提供するが、近年のVLMからのKDアプローチでは、多段階のトレーニングや追加のチューニングがしばしば行われている。
本稿では,VLMの知識を,半言語設定でコンパクトなタスク固有モデルに伝達する,シンプルで効果的なKDフレームワークであるmathbftextttDHO$を提案する。
論文 参考訳(メタデータ) (2025-05-12T15:39:51Z) - Displacement-Sparse Neural Optimal Transport [6.968698312185846]
最適輸送(OT)は、コスト関数を最小化しながら、ある確率測度から別の確率測度へ質量を輸送するマップ$T$を見つけることを目的としている。
ニューラルOTソルバは、薬物摂動などの高次元生物学的応用で人気を博している。
直感的で理論的に基礎を成す手法として,ニューラルOTソルバ内におけるエンファスメント・スパースマップの学習手法を提案する。
論文 参考訳(メタデータ) (2025-02-03T23:44:17Z) - Variance Reduction for the Independent Metropolis Sampler [11.074080383657453]
我々は、$pi$がKL分散の下で別の密度$q$に十分近い場合、$pi$からサンプルを得る独立したサンプリング器は、$pi$からサンプリングするi.d.よりも小さな分散を達成することを証明した。
提案手法は,KLの目標との偏差が低減されるように,提案密度に適応する適応型独立メトロポリスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-25T16:38:53Z) - Towards Understanding and Improving GFlowNet Training [71.85707593318297]
本稿では,学習したサンプリング分布と目標報酬分布を比較するための効率的な評価手法を提案する。
本稿では,高解像度のx$,相対的エッジフローポリシーのパラメータ化,新しい軌道バランス目標を提案する。
論文 参考訳(メタデータ) (2023-05-11T22:50:41Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。