論文の概要: Neural Local Wasserstein Regression
- arxiv url: http://arxiv.org/abs/2511.10824v1
- Date: Thu, 13 Nov 2025 21:54:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.341017
- Title: Neural Local Wasserstein Regression
- Title(参考訳): ニューラルローカルワッサースタイン回帰
- Authors: Inga Girshfeld, Xiaohui Chen,
- Abstract要約: 本研究では,予測値と応答値の両方が確率測度である分布分布分布分布回帰の推定問題について検討する。
既存のアプローチは通常、大域的最適輸送写像や接空間線型化に依存している。
ワッサーシュタイン空間の局所的に定義された輸送写像を通して回帰をモデル化するフレキシブルな非パラメトリックフレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.52489456261937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the estimation problem of distribution-on-distribution regression, where both predictors and responses are probability measures. Existing approaches typically rely on a global optimal transport map or tangent-space linearization, which can be restrictive in approximation capacity and distort geometry in multivariate underlying domains. In this paper, we propose the \emph{Neural Local Wasserstein Regression}, a flexible nonparametric framework that models regression through locally defined transport maps in Wasserstein space. Our method builds on the analogy with classical kernel regression: kernel weights based on the 2-Wasserstein distance localize estimators around reference measures, while neural networks parameterize transport operators that adapt flexibly to complex data geometries. This localized perspective broadens the class of admissible transformations and avoids the limitations of global map assumptions and linearization structures. We develop a practical training procedure using DeepSets-style architectures and Sinkhorn-approximated losses, combined with a greedy reference selection strategy for scalability. Through synthetic experiments on Gaussian and mixture models, as well as distributional prediction tasks on MNIST, we demonstrate that our approach effectively captures nonlinear and high-dimensional distributional relationships that elude existing methods.
- Abstract(参考訳): 本研究では,予測値と応答値の両方が確率測度である分布分布分布分布回帰の推定問題について検討する。
既存のアプローチは通常、大域的最適輸送写像(英語版)や接空間線型化(英語版)に依存しており、これは多変量基底領域における近似能力や歪み幾何学に制限される。
本稿では、局所的に定義されたワッサーシュタイン空間の輸送写像を通して回帰をモデル化するフレキシブルな非パラメトリックフレームワークである \emph{Neural Local Wasserstein Regression} を提案する。
カーネル重みは2-ワッサーシュタイン距離に基づく基準測度付近の推定値の局所化であり、ニューラルネットワークは複雑なデータジオメトリに柔軟に適応する輸送作用素をパラメータ化する。
この局所化パースペクティブは許容可能な変換のクラスを広げ、大域写像の仮定と線形化構造の制限を避ける。
我々は、DeepSetsスタイルのアーキテクチャとシンクホーン近似損失を用いた実践的なトレーニング手法を開発し、拡張性のためのグレディな参照選択戦略と組み合わせた。
ガウスモデルと混合モデルの合成実験や,MNISTの分布予測タスクを通じて,本手法が既存の手法を損なう非線形および高次元分布関係を効果的に捉えることを実証した。
関連論文リスト
- Wasserstein Regression as a Variational Approximation of Probabilistic Trajectories through the Bernstein Basis [41.99844472131922]
既存のアプローチは、しばしば確率空間の幾何学を無視したり、計算コストがかかる。
ベルンシュタイン基底を用いた確率軌道のパラメータ化と分布間のワッサーシュタイン距離の最小化を組み合わせた新しい手法を提案する。
この手法は、幾何学的精度、計算的実用性、解釈可能性を組み合わせたものである。
論文 参考訳(メタデータ) (2025-10-30T15:36:39Z) - Likely Interpolants of Generative Models [12.543430183696648]
生成モデルの補間は、制御された生成、モデル検査などを可能にする。
ほとんどの生成モデルは、モデルまたはデータ次元に制限的な仮定なしで補間子の主観的概念を欠いている。
我々は、異なるメトリクスや確率分布と互換性のある遷移経路をターゲットとする一般的なスキームを開発する。
論文 参考訳(メタデータ) (2025-10-30T08:46:53Z) - Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - Generalized Linear Mode Connectivity for Transformers [87.32299363530996]
驚くべき現象はリニアモード接続(LMC)であり、独立に訓練されたモデルを低損失またはゼロ損失の経路で接続することができる。
以前の研究は主に置換によるニューロンの並べ替えに焦点を合わせてきたが、そのようなアプローチは範囲に限られている。
我々は、4つの対称性クラス(置換、半置換、変換、一般可逆写像)をキャプチャする統一的なフレームワークを導入する。
この一般化により、独立に訓練された視覚変換器とGPT-2モデルの間の低障壁とゼロバリア線形経路の発見が可能となった。
論文 参考訳(メタデータ) (2025-06-28T01:46:36Z) - Deep Partially Linear Transformation Model for Right-Censored Survival Data [6.315323176162257]
本稿では, 汎用かつ柔軟な回帰フレームワークとして, 深部部分線形変換モデル(DPLTM)を提案する。
提案手法は, 興味あるコセンサーの解釈可能性を維持しつつ, 次元の呪いを避けることができる。
総合シミュレーション研究は,提案手法の精度と予測力の両面から,優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-12-10T15:50:43Z) - Deep Fréchet Regression [4.915744683251151]
パラメトリックな仮定を課さずに高次元予測器を扱えるフレキシブル回帰モデルを提案する。
提案手法は,非ユークリッド応答に対する既存手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-31T07:54:14Z) - Random Forest Weighted Local Fréchet Regression with Random Objects [18.128663071848923]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は、これらの重みを局所平均として、条件付きFr'echet平均を解くことである。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。