論文の概要: Wasserstein Distributional Learning
- arxiv url: http://arxiv.org/abs/2209.04991v1
- Date: Mon, 12 Sep 2022 02:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:50:57.249632
- Title: Wasserstein Distributional Learning
- Title(参考訳): ワッサーシュタイン分布学習
- Authors: Chengliang Tang, Nathan Lenssen, Ying Wei, Tian Zheng
- Abstract要約: Wasserstein Distributional Learning (WDL)はフレキシブルな密度オンスカラー回帰モデリングフレームワークである。
WDLは, 条件密度の非線形依存性をよりよく特徴付け, 明らかにする。
シミュレーションと実世界の応用を通してWDLフレームワークの有効性を実証する。
- 参考スコア(独自算出の注目度): 5.830831796910439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning conditional densities and identifying factors that influence the
entire distribution are vital tasks in data-driven applications. Conventional
approaches work mostly with summary statistics, and are hence inadequate for a
comprehensive investigation. Recently, there have been developments on
functional regression methods to model density curves as functional outcomes. A
major challenge for developing such models lies in the inherent constraint of
non-negativity and unit integral for the functional space of density outcomes.
To overcome this fundamental issue, we propose Wasserstein Distributional
Learning (WDL), a flexible density-on-scalar regression modeling framework that
starts with the Wasserstein distance $W_2$ as a proper metric for the space of
density outcomes. We then introduce a heterogeneous and flexible class of
Semi-parametric Conditional Gaussian Mixture Models (SCGMM) as the model class
$\mathfrak{F} \otimes \mathcal{T}$. The resulting metric space $(\mathfrak{F}
\otimes \mathcal{T}, W_2)$ satisfies the required constraints and offers a
dense and closed functional subspace. For fitting the proposed model, we
further develop an efficient algorithm based on Majorization-Minimization
optimization with boosted trees. Compared with methods in the previous
literature, WDL better characterizes and uncovers the nonlinear dependence of
the conditional densities, and their derived summary statistics. We demonstrate
the effectiveness of the WDL framework through simulations and real-world
applications.
- Abstract(参考訳): 学習条件密度と分布全体に影響を及ぼす要因は、データ駆動型アプリケーションにおいて不可欠である。
従来のアプローチは主に要約統計を扱うため、包括的な調査には不十分である。
近年,密度曲線を関数的結果としてモデル化する関数回帰法が開発されている。
そのようなモデルを開発する上での大きな課題は、密度結果の関数空間に対する非ネガティビティの固有の制約と単位積分である。
この根本的な問題を解決するために、ワッサースタイン距離$W_2$から始まるフレキシブルな密度オンスカラー回帰モデリングフレームワークであるワッサースタイン分布学習(WDL)を提案する。
次に、半パラメトリック条件ガウス混合モデル(SCGMM)の不均一で柔軟なクラスをモデルクラス $\mathfrak{F} \otimes \mathcal{T}$ として導入する。
結果として得られる距離空間 $(\mathfrak{f} \otimes \mathcal{t}, w_2)$ は必要制約を満たし、高密度で閉な部分空間を提供する。
提案モデルに適合させるために,増木を用いた偏極最適化に基づく効率的なアルゴリズムを更に開発する。
従来の文献と比較すると、WDLは条件密度の非線形依存性とそれらの導出した要約統計をよりよく特徴づけ、明らかにしている。
シミュレーションと実世界の応用を通してWDLフレームワークの有効性を示す。
関連論文リスト
- Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Distribution learning via neural differential equations: a nonparametric
statistical perspective [1.4436965372953483]
この研究は、確率変換によって訓練されたODEモデルによる分布学習のための最初の一般統計収束解析を確立する。
後者はクラス $mathcal F$ の$C1$-metric entropy で定量化できることを示す。
次に、この一般フレームワークを$Ck$-smoothターゲット密度の設定に適用し、関連する2つの速度場クラスに対する最小最適収束率を$mathcal F$:$Ck$関数とニューラルネットワークに設定する。
論文 参考訳(メタデータ) (2023-09-03T00:21:37Z) - Diffusion Models are Minimax Optimal Distribution Estimators [49.47503258639454]
拡散モデリングの近似と一般化能力について、初めて厳密な分析を行った。
実密度関数がベソフ空間に属し、経験値整合損失が適切に最小化されている場合、生成したデータ分布は、ほぼ最小の最適推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:31:55Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - A data-driven peridynamic continuum model for upscaling molecular
dynamics [3.1196544696082613]
分子動力学データから最適線形ペリダイナミックソリッドモデルを抽出する学習フレームワークを提案する。
我々は,符号変化の影響関数を持つ離散化LPSモデルに対して,十分な適切な正当性条件を提供する。
このフレームワークは、結果のモデルが数学的に適切であり、物理的に一貫したものであり、トレーニング中に使用するものと異なる設定によく当てはまることを保証します。
論文 参考訳(メタデータ) (2021-08-04T07:07:47Z) - SODEN: A Scalable Continuous-Time Survival Model through Ordinary
Differential Equation Networks [14.564168076456822]
本稿では、ニューラルネットワークとスケーラブルな最適化アルゴリズムを用いた生存分析のためのフレキシブルモデルを提案する。
提案手法の有効性を,既存の最先端ディープラーニングサバイバル分析モデルと比較した。
論文 参考訳(メタデータ) (2020-08-19T19:11:25Z) - Non-parametric Models for Non-negative Functions [48.7576911714538]
同じ良い線形モデルから非負関数に対する最初のモデルを提供する。
我々は、それが表現定理を認め、凸問題に対する効率的な二重定式化を提供することを証明した。
論文 参考訳(メタデータ) (2020-07-08T07:17:28Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。