論文の概要: Accelerated Multiple Wasserstein Gradient Flows for Multi-objective Distributional Optimization
- arxiv url: http://arxiv.org/abs/2601.19220v1
- Date: Tue, 27 Jan 2026 05:41:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.191802
- Title: Accelerated Multiple Wasserstein Gradient Flows for Multi-objective Distributional Optimization
- Title(参考訳): 多目的分布最適化のための加速多重ワッサースタイン勾配流れ
- Authors: Dai Hai Nguyen, Duc Dung Nguyen, Atsuyoshi Nakamura, Hiroshi Mamitsuka,
- Abstract要約: We study multi-jective optimization over probability distributions in Wasserstein space。
我々はNesterovの加速度にインスパイアされた加速変種A-MWGraDを提案する。
A-MWGraDは,マルチターゲットサンプリングタスクにおいて,コンバージェンス速度とサンプリング効率でMWGraDを一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 3.967275814479281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study multi-objective optimization over probability distributions in Wasserstein space. Recently, Nguyen et al. (2025) introduced Multiple Wasserstein Gradient Descent (MWGraD) algorithm, which exploits the geometric structure of Wasserstein space to jointly optimize multiple objectives. Building on this approach, we propose an accelerated variant, A-MWGraD, inspired by Nesterov's acceleration. We analyze the continuous-time dynamics and establish convergence to weakly Pareto optimal points in probability space. Our theoretical results show that A-MWGraD achieves a convergence rate of O(1/t^2) for geodesically convex objectives and O(e^{-\sqrtβt}) for $β$-strongly geodesically convex objectives, improving upon the O(1/t) rate of MWGraD in the geodesically convex setting. We further introduce a practical kernel-based discretization for A-MWGraD and demonstrate through numerical experiments that it consistently outperforms MWGraD in convergence speed and sampling efficiency on multi-target sampling tasks.
- Abstract(参考訳): We study multi-jective optimization over probability distributions in Wasserstein space。
Nguyen et al (2025) は、ワッサーシュタイン空間の幾何学的構造を利用して複数の目的を共同で最適化する多重ワッサーシュタイン勾配 Descent (MWGraD) アルゴリズムを導入した。
このアプローチに基づいて、Nesterovの加速度にインスパイアされた加速変種A-MWGraDを提案する。
連続時間力学を解析し、確率空間における弱パレート最適点への収束を確立する。
以上の結果から,A-MWGraD は測地学的凸目標に対する O(1/t^2) の収束率と,$β$-強い測地的凸目標に対する O(e^{-\sqrtβt}) の収束率を達成し,測地的凸設定における MWGraD の O(1/t) の速度を改善することが示唆された。
さらに、A-MWGraDの実用的なカーネルベースの離散化を導入し、マルチターゲットサンプリングタスクにおけるMWGraDの収束速度とサンプリング効率を一貫して上回ることを示す数値実験を行った。
関連論文リスト
- Hessian-guided Perturbed Wasserstein Gradient Flows for Escaping Saddle Points [54.06226763868876]
ワッサーシュタインフロー (WGF) は測度空間上で最適化を行う一般的な方法である。
PWGFは一般の非目的の観点で大域的最適に収束することを示す。
論文 参考訳(メタデータ) (2025-09-21T08:14:20Z) - Multiple Wasserstein Gradient Descent Algorithm for Multi-Objective Distributional Optimization [5.762345156477737]
多目的分布最適化は、機械学習や統計学において一般的に発生し、多目的サンプリング、マルチタスク学習、多目的生成モデリングなどの分野に応用される。
本稿では,粒子の集合で表される中間的経験分布の流れを構成する反復的粒子ベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-24T16:08:13Z) - Continuous-time Riemannian SGD and SVRG Flows on Wasserstein Probabilistic Space [21.12668895845275]
我々は、フロー上の勾配を勾配降下に拡張することにより、ワッサーシュタイン空間における連続最適化手法の族を拡張する。
ワッサーシュタイン空間の性質を利用して微分方程式(SDE)を構築し、対応する離散ユークリッド力学を近似する。
最後に、提案した流れの収束速度を確立し、ユークリッド設定で知られている流れと整合する。
論文 参考訳(メタデータ) (2024-01-24T15:35:44Z) - Symmetric Mean-field Langevin Dynamics for Distributional Minimax
Problems [78.96969465641024]
平均場ランゲヴィンのダイナミクスを、対称で証明可能な収束した更新で、初めて確率分布に対する最小の最適化に拡張する。
また,時間と粒子の離散化機構について検討し,カオス結果の新たな均一時間伝播を証明した。
論文 参考訳(メタデータ) (2023-12-02T13:01:29Z) - Multi-Objective Optimization via Wasserstein-Fisher-Rao Gradient Flow [18.32300121391956]
多目的最適化(MOO)は、広範囲のアプリケーションと競合する複数の目的を最適化することを目的としている。
分子動力学シミュレーションにインスパイアされたMOOのための新しい相互作用粒子法を提案する。
論文 参考訳(メタデータ) (2023-11-22T04:49:16Z) - Efficient Graph Field Integrators Meet Point Clouds [59.27295475120132]
点雲を符号化するグラフ上での効率的な場積分のためのアルゴリズムを2種類提案する。
第1のクラスであるSeparatorFactorization(SF)は、ポイントメッシュグラフの有界属を利用するが、第2のクラスであるRFDiffusion(RFD)は、ポイントクラウドの一般的なepsilon-nearest-neighborグラフ表現を使用する。
論文 参考訳(メタデータ) (2023-02-02T08:33:36Z) - Nesterov Meets Optimism: Rate-Optimal Separable Minimax Optimization [108.35402316802765]
本稿では,新しい一階最適化アルゴリズムであるAcceleratedGradient-OptimisticGradient (AG-OG) Ascentを提案する。
我々はAG-OGが様々な設定に対して最適収束率(定数まで)を達成することを示す。
アルゴリズムを拡張して設定を拡張し、bi-SC-SCとbi-C-SCの両方で最適な収束率を達成する。
論文 参考訳(メタデータ) (2022-10-31T17:59:29Z) - Hessian-Free High-Resolution Nesterov Acceleration for Sampling [55.498092486970364]
最適化のためのNesterovのAccelerated Gradient(NAG)は、有限のステップサイズを使用する場合の連続時間制限(ノイズなしの運動的ランゲヴィン)よりも優れたパフォーマンスを持つ。
本研究は, この現象のサンプリング法について検討し, 離散化により加速勾配に基づくMCMC法が得られる拡散過程を提案する。
論文 参考訳(メタデータ) (2020-06-16T15:07:37Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。