論文の概要: GradNetOT: Learning Optimal Transport Maps with GradNets
- arxiv url: http://arxiv.org/abs/2507.13191v1
- Date: Thu, 17 Jul 2025 14:59:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.546326
- Title: GradNetOT: Learning Optimal Transport Maps with GradNets
- Title(参考訳): GradNetOT: GradNetsで最適なトランスポートマップを学習する
- Authors: Shreyas Chaudhari, Srinivasa Pranav, José M. F. Moura,
- Abstract要約: aXiv:2301.10862][arXiv:2404.07361]では、モノトン勾配写像の空間を直接パラメータ化するニューラルネットワークであるモノトン勾配ネットワーク(mGradNets)を提案した。
我々は,mGradNetsの構造バイアスが最適輸送マップの学習を促進することを実証的に示し,ロボット群制御問題に本手法を適用した。
- 参考スコア(独自算出の注目度): 11.930694410868435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monotone gradient functions play a central role in solving the Monge formulation of the optimal transport problem, which arises in modern applications ranging from fluid dynamics to robot swarm control. When the transport cost is the squared Euclidean distance, Brenier's theorem guarantees that the unique optimal map is the gradient of a convex function, namely a monotone gradient map, and it satisfies a Monge-Amp\`ere equation. In [arXiv:2301.10862] [arXiv:2404.07361], we proposed Monotone Gradient Networks (mGradNets), neural networks that directly parameterize the space of monotone gradient maps. In this work, we leverage mGradNets to directly learn the optimal transport mapping by minimizing a training loss function defined using the Monge-Amp\`ere equation. We empirically show that the structural bias of mGradNets facilitates the learning of optimal transport maps and employ our method for a robot swarm control problem.
- Abstract(参考訳): モノトーン勾配関数は, 流体力学からロボット群制御に至るまで, 最適輸送問題のモンジュ定式化において中心的な役割を果たす。
輸送コストが2乗ユークリッド距離であるとき、ブレニエの定理は、唯一の最適写像が凸函数、すなわち単調勾配写像の勾配であることを保証する。
aXiv:2301.10862][arXiv:2404.07361]では、モノトン勾配写像の空間を直接パラメータ化するニューラルネットワークであるモノトン勾配ネットワーク(mGradNets)を提案した。
本研究では mGradNets を利用して,Monge-Amp\`ere 方程式を用いて定義されたトレーニング損失関数を最小化することにより,最適なトランスポートマッピングを直接学習する。
我々は,mGradNetsの構造バイアスが最適輸送マップの学習を促進することを実証的に示し,ロボット群制御問題に本手法を適用した。
関連論文リスト
- Gradient Networks [11.930694410868435]
凸勾配を表す包括的なGradNet設計フレームワークを提供する。
GradNetsは神経勾配関数を近似できることを示す。
また,モノトンGradNetsは,パラメータ化の効率化と既存手法の高性能化を図っている。
論文 参考訳(メタデータ) (2024-04-10T21:36:59Z) - Normalizing flows as approximations of optimal transport maps via linear-control neural ODEs [49.1574468325115]
我々は、絶対連続測度$mu,nuinmathcalP(mathbbRn)$間の$Wimat$-optimal transport map Tを線形制御ニューラルネットワークのフローとして回収する問題を考える。
論文 参考訳(メタデータ) (2023-11-02T17:17:03Z) - Efficient Neural Network Approaches for Conditional Optimal Transport with Applications in Bayesian Inference [1.740133468405535]
D1450F4545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545 4545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545 4545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545 4545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545 4545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545 4545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545 4545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545454545 454545454545454545454545454545454545454545454545454545454545
論文 参考訳(メタデータ) (2023-10-25T20:20:09Z) - Learning Gradients of Convex Functions with Monotone Gradient Networks [5.220940151628734]
凸関数の勾配は、勾配に基づく最適化から最適輸送まで、重要な応用を持つ。
近年、凸目標学習のためのデータ駆動手法が研究されているが、そのモノトーン勾配の学習はほとんど研究されていない。
我々のネットワークは、トレーニングが簡単で、モノトーン勾配場をより正確に学習し、最先端の手法よりもはるかに少ないパラメータを使用することを示す。
論文 参考訳(メタデータ) (2023-01-25T23:04:50Z) - Universal Neural Optimal Transport [0.0]
UNOT(Universal Neural Optimal Transport、Universal Neural Optimal Transport)は、OT距離を正確に予測できる新しいフレームワークである。
我々のネットワークはSinkhornアルゴリズムの最先端の初期化として使用でき、最大7.4times$の高速化が可能であることを示す。
論文 参考訳(メタデータ) (2022-11-30T21:56:09Z) - Fast $L^2$ optimal mass transport via reduced basis methods for the
Monge-Amp$\grave{\rm e}$re equation [0.0]
パラメータ化されたMonge-Amp$graverm e$re方程式を解くための機械学習的手法を提案する。
いくつかの挑戦的な数値実験により,モンジュ=アンプ=グラバーム=e$re方程式を解くための手法の精度と高効率性を実証した。
論文 参考訳(メタデータ) (2021-12-03T12:30:46Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - Learning Linearized Assignment Flows for Image Labeling [70.540936204654]
画像ラベリングのための線形化代入フローの最適パラメータを推定するための新しいアルゴリズムを提案する。
この式をKrylov部分空間と低ランク近似を用いて効率的に評価する方法を示す。
論文 参考訳(メタデータ) (2021-08-02T13:38:09Z) - Self Sparse Generative Adversarial Networks [73.590634413751]
GAN(Generative Adversarial Networks)は、敵対的トレーニングを通じてデータ分布を学習する監視されていない生成モデルである。
本論文では,パラメータ空間を小さくし,ゼロ勾配問題を軽減するSelf Sparse Generative Adversarial Network (Self-Sparse GAN)を提案する。
論文 参考訳(メタデータ) (2021-01-26T04:49:12Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。