論文の概要: Wasserstein Regression as a Variational Approximation of Probabilistic Trajectories through the Bernstein Basis
- arxiv url: http://arxiv.org/abs/2510.26607v1
- Date: Thu, 30 Oct 2025 15:36:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.88561
- Title: Wasserstein Regression as a Variational Approximation of Probabilistic Trajectories through the Bernstein Basis
- Title(参考訳): ベルンシュタイン基底による確率軌道の変分近似としてのワッサーシュタイン回帰
- Authors: Maksim Maslov, Alexander Kugaevskikh, Matthew Ivanov,
- Abstract要約: 既存のアプローチは、しばしば確率空間の幾何学を無視したり、計算コストがかかる。
ベルンシュタイン基底を用いた確率軌道のパラメータ化と分布間のワッサーシュタイン距離の最小化を組み合わせた新しい手法を提案する。
この手法は、幾何学的精度、計算的実用性、解釈可能性を組み合わせたものである。
- 参考スコア(独自算出の注目度): 41.99844472131922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper considers the problem of regression over distributions, which is becoming increasingly important in machine learning. Existing approaches often ignore the geometry of the probability space or are computationally expensive. To overcome these limitations, a new method is proposed that combines the parameterization of probability trajectories using a Bernstein basis and the minimization of the Wasserstein distance between distributions. The key idea is to model a conditional distribution as a smooth probability trajectory defined by a weighted sum of Gaussian components whose parameters -- the mean and covariance -- are functions of the input variable constructed using Bernstein polynomials. The loss function is the averaged squared Wasserstein distance between the predicted Gaussian distributions and the empirical data, which takes into account the geometry of the distributions. An autodiff-based optimization method is used to train the model. Experiments on synthetic datasets that include complex trajectories demonstrated that the proposed method provides competitive approximation quality in terms of the Wasserstein distance, Energy Distance, and RMSE metrics, especially in cases of pronounced nonlinearity. The model demonstrates trajectory smoothness that is better than or comparable to alternatives and robustness to changes in data structure, while maintaining high interpretability due to explicit parameterization via control points. The developed approach represents a balanced solution that combines geometric accuracy, computational practicality, and interpretability. Prospects for further research include extending the method to non-Gaussian distributions, applying entropy regularization to speed up computations, and adapting the approach to working with high-dimensional data for approximating surfaces and more complex structures.
- Abstract(参考訳): 本稿では、機械学習においてますます重要になりつつある分散よりも回帰の問題について考察する。
既存のアプローチは、しばしば確率空間の幾何学を無視したり、計算コストがかかる。
これらの制限を克服するために、ベルンシュタイン基底を用いた確率軌道のパラメータ化と分布間のワッサーシュタイン距離の最小化を組み合わせた新しい手法を提案する。
キーとなる考え方は、条件分布を、平均と共分散のパラメータがベルンシュタイン多項式を用いて構築された入力変数の関数であるガウス成分の重み付け和によって定義される滑らかな確率軌道としてモデル化することである。
損失関数は、予測されたガウス分布と、分布の幾何学を考慮に入れた経験的データの間の平均二乗ワッサーシュタイン距離である。
モデルのトレーニングには,オートディフに基づく最適化手法が使用される。
複雑な軌跡を含む合成データセットの実験により, 提案手法がワッサーシュタイン距離, エネルギー距離, RMSE測定値の競合近似品質, 特に顕著な非線形性を示すことを示す。
このモデルは、制御点による明示的なパラメータ化による高い解釈性を維持しながら、データ構造の変化に対するオルタナティブやロバスト性に匹敵する軌道の滑らかさを示す。
この手法は、幾何学的精度、計算的実用性、解釈可能性を組み合わせたバランスのとれた解である。
さらなる研究には、この手法を非ガウス分布に拡張すること、エントロピー正規化を適用して計算を高速化すること、表面やより複雑な構造を近似するために高次元のデータを扱うアプローチを適用することなどが含まれる。
関連論文リスト
- The Power of Random Features and the Limits of Distribution-Free Gradient Descent [14.742677437485273]
パラメトリックモデル(例えばニューラルネットワーク)の勾配に基づく最適化とランダムな特徴の線形結合の最適化の関係について検討する。
本研究の主目的は,データ分布を仮定することなく,最小バッチ勾配勾配(bSGD)を用いてパラメトリックモデルを学習できる場合,高い確率で対象関数を近似できることである。
論文 参考訳(メタデータ) (2025-05-15T15:39:28Z) - Nested Stochastic Algorithm for Generalized Sinkhorn distance-Regularized Distributionally Robust Optimization [4.989068568135242]
分散ロバストシフト最適化(DRO)は、データ分散に対するロバストモデルのための強力な手法である。
本稿では、一般化近似関数によって不確実性をモデル化した正規化非DRO問題の解決を目的とする。
論文 参考訳(メタデータ) (2025-03-29T01:01:02Z) - Variational Bayesian surrogate modelling with application to robust design optimisation [0.9626666671366836]
サロゲートモデルは複雑な計算モデルに対して素早く評価できる近似を提供する。
入力の不確かさと次元減少を伴う統計的代理を構築するためのベイズ推定について考察する。
コスト関数がモデル出力の平均および標準偏差の重み付け和に依存するような本質的で頑健な構造最適化問題を示す。
論文 参考訳(メタデータ) (2024-04-23T09:22:35Z) - Flow-based Distributionally Robust Optimization [23.232731771848883]
We present a framework, called $textttFlowDRO$, for solve flow-based distributionally robust optimization (DRO) problem with Wasserstein uncertainty set。
我々は、連続した最悪のケース分布(Last Favorable Distribution, LFD)とそれからのサンプルを見つけることを目指している。
本稿では、逆学習、分布論的に堅牢な仮説テスト、およびデータ駆動型分布摂動差分プライバシーの新しいメカニズムを実証する。
論文 参考訳(メタデータ) (2023-10-30T03:53:31Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Variational Transport: A Convergent Particle-BasedAlgorithm for Distributional Optimization [106.70006655990176]
分散最適化問題は機械学習や統計学で広く発生する。
本稿では,変分輸送と呼ばれる粒子に基づく新しいアルゴリズムを提案する。
目的関数がpolyak-Lojasiewicz (PL) (Polyak, 1963) の機能バージョンと滑らかな条件を満たすとき、変分輸送は線形に収束することを示す。
論文 参考訳(メタデータ) (2020-12-21T18:33:13Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。