論文の概要: Multiple Wasserstein Gradient Descent Algorithm for Multi-Objective Distributional Optimization
- arxiv url: http://arxiv.org/abs/2505.18765v1
- Date: Sat, 24 May 2025 16:08:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.646868
- Title: Multiple Wasserstein Gradient Descent Algorithm for Multi-Objective Distributional Optimization
- Title(参考訳): 多目的分布最適化のための多重ワッサースタイン勾配Descentアルゴリズム
- Authors: Dai Hai Nguyen, Hiroshi Mamitsuka, Atsuyoshi Nakamura,
- Abstract要約: 多目的分布最適化は、機械学習や統計学において一般的に発生し、多目的サンプリング、マルチタスク学習、多目的生成モデリングなどの分野に応用される。
本稿では,粒子の集合で表される中間的経験分布の流れを構成する反復的粒子ベースアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 5.762345156477737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the optimization problem of simultaneously minimizing multiple objective functionals over a family of probability distributions. This type of Multi-Objective Distributional Optimization commonly arises in machine learning and statistics, with applications in areas such as multiple target sampling, multi-task learning, and multi-objective generative modeling. To solve this problem, we propose an iterative particle-based algorithm, which we call Muliple Wasserstein Gradient Descent (MWGraD), which constructs a flow of intermediate empirical distributions, each being represented by a set of particles, which gradually minimize the multiple objective functionals simultaneously. Specifically, MWGraD consists of two key steps at each iteration. First, it estimates the Wasserstein gradient for each objective functional based on the current particles. Then, it aggregates these gradients into a single Wasserstein gradient using dynamically adjusted weights and updates the particles accordingly. In addition, we provide theoretical analysis and present experimental results on both synthetic and real-world datasets, demonstrating the effectiveness of MWGraD.
- Abstract(参考訳): 確率分布の族上で複数の目的関数を同時に最小化する最適化問題に対処する。
この種の多目的分布最適化は、機械学習や統計学において一般的に発生し、多目的サンプリング、マルチタスク学習、多目的生成モデリングなどの分野に応用される。
そこで本研究では,中間的経験分布の流れを粒子の集合で表現し,複数の目的関数を同時に最小化する,反復的粒子ベースアルゴリズムをMulliple Wasserstein Gradient Descent (MWGraD) と呼ぶ。
具体的には、MWGraDはイテレーション毎に2つの重要なステップから構成される。
まず、電流粒子に基づいて各目的関数に対するワッサーシュタイン勾配を推定する。
そして、動的に調整された重みを使ってこれらの勾配を1つのワッサーシュタイン勾配に集約し、それに従って粒子を更新する。
さらに, MWGraDの有効性を実証し, 合成および実世界の両方のデータセットに対して理論的解析および実験結果を提供する。
関連論文リスト
- Weighted quantization using MMD: From mean field to mean shift via gradient flows [5.216151302783165]
We show that a Wasserstein-Fisher-Rao gradient flow is well suit for design Quantizations optimal under MMD。
我々は平均シフト相互作用粒子(MSIP)と呼ばれる新しい固定点アルゴリズムを導出する。
我々の勾配流、平均シフト、MDD最適量子化の統合は、最先端の手法よりもアルゴリズムをより堅牢にします。
論文 参考訳(メタデータ) (2025-02-14T23:13:20Z) - Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - A DeepParticle method for learning and generating aggregation patterns
in multi-dimensional Keller-Segel chemotaxis systems [3.6184545598911724]
ケラー・セガル (KS) ケモタキシー系の2次元および3次元における凝集パターンと近傍特異解の正則化相互作用粒子法について検討した。
さらに,物理パラメータの異なる解を学習し,生成するためのDeepParticle (DP) 法を開発した。
論文 参考訳(メタデータ) (2022-08-31T20:52:01Z) - Flow Network based Generative Models for Non-Iterative Diverse Candidate
Generation [110.09855163856326]
本稿では,アクションのシーケンスからオブジェクトを生成するためのポリシーを学習する問題について述べる。
本稿では,生成過程をフローネットワークとして見たGFlowNetを提案する。
提案した目的の任意のグローバルな最小限が、所望の分布から標本化する方針を導出することを証明する。
論文 参考訳(メタデータ) (2021-06-08T14:21:10Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Variational Transport: A Convergent Particle-BasedAlgorithm for Distributional Optimization [106.70006655990176]
分散最適化問題は機械学習や統計学で広く発生する。
本稿では,変分輸送と呼ばれる粒子に基づく新しいアルゴリズムを提案する。
目的関数がpolyak-Lojasiewicz (PL) (Polyak, 1963) の機能バージョンと滑らかな条件を満たすとき、変分輸送は線形に収束することを示す。
論文 参考訳(メタデータ) (2020-12-21T18:33:13Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。