論文の概要: PMGDA: A Preference-based Multiple Gradient Descent Algorithm
- arxiv url: http://arxiv.org/abs/2402.09492v2
- Date: Fri, 16 Feb 2024 14:01:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 12:39:29.799813
- Title: PMGDA: A Preference-based Multiple Gradient Descent Algorithm
- Title(参考訳): pmgda:選好に基づく多重勾配降下アルゴリズム
- Authors: Xiaoyuan Zhang and Xi Lin and Qingfu Zhang
- Abstract要約: マルチタスク学習のような、多くの多目的機械学習アプリケーションにおいて、意思決定者の所定の好みに合ったソリューションを見つけることが望ましい。
本稿では,意思決定者の好みに合ったソリューションを見つけるための,新しい予測と修正のためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.600588000788214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is desirable in many multi-objective machine learning applications, such
as multi-task learning with conflicting objectives and multi-objective
reinforcement learning, to find a Pareto solution that can match a given
preference of a decision maker. These problems are often large-scale with
available gradient information but cannot be handled very well by the existing
algorithms. To tackle this critical issue, this paper proposes a novel
predict-and-correct framework for locating a Pareto solution that fits the
preference of a decision maker. In the proposed framework, a constraint
function is introduced in the search progress to align the solution with a
user-specific preference, which can be optimized simultaneously with multiple
objective functions. Experimental results show that our proposed method can
efficiently find a particular Pareto solution under the demand of a decision
maker for standard multiobjective benchmark, multi-task learning, and
multi-objective reinforcement learning problems with more than thousands of
decision variables.
Code is available at: https://github.com/xzhang2523/pmgda. Our code is
current provided in the pgmda.rar attached file and will be open-sourced after
publication.}
- Abstract(参考訳): 競合する目的を持つマルチタスク学習や多目的強化学習など、多くの多目的機械学習アプリケーションにおいて、意思決定者の所定の好みに合うパレートソリューションを見つけることが望ましい。
これらの問題は、しばしば利用可能な勾配情報を持つ大規模であるが、既存のアルゴリズムではうまく扱えない。
この問題に取り組むため,本稿では,意思決定者の好みに合致したparetoソリューションを見つけるための新しい予測・修正フレームワークを提案する。
提案フレームワークでは,複数の目的関数と同時最適化可能なユーザ固有の選好にソリューションを整合させるために,探索進行に制約関数を導入する。
実験の結果,提案手法は,標準多目的ベンチマーク,マルチタスク学習,および数千以上の決定変数を持つ多目的強化学習問題に対する意思決定者の要求に応じて,特定のパレート解を効率的に見つけることができることがわかった。
コードはhttps://github.com/xzhang2523/pmgda。
私たちのコードは現在のpgmda.rarアタッチメントファイルで提供されており、公開後にオープンソース化されます。
}
関連論文リスト
- Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - A Scale-Independent Multi-Objective Reinforcement Learning with
Convergence Analysis [0.6091702876917281]
多くのシーケンシャルな意思決定問題は、対立する可能性のある異なる目的の最適化を必要とする。
本稿では,Advantage Actor-Critic (A2C)アルゴリズムに基づいて,単エージェントスケール非依存型多目的強化学習を開発する。
次に、収束保証を提供する考案された多目的アルゴリズムに対して収束解析を行う。
論文 参考訳(メタデータ) (2023-02-08T16:38:55Z) - Multi-Objective GFlowNets [59.16787189214784]
本稿では,多目的最適化の文脈において,多様な候補を生成する問題について検討する。
薬物発見やマテリアルデザインといった機械学習の多くの応用において、目標は、競合する可能性のある目標のセットを同時に最適化する候補を生成することである。
GFlowNetsをベースとした多目的GFlowNets(MOGFNs)を提案する。
論文 参考訳(メタデータ) (2022-10-23T16:15:36Z) - Pareto Set Learning for Neural Multi-objective Combinatorial
Optimization [6.091096843566857]
多目的最適化(MOCO)の問題は、現実世界の多くのアプリケーションで見られる。
我々は,与えられたMOCO問題に対するパレート集合全体を,探索手順を伴わずに近似する学習ベースアプローチを開発した。
提案手法は,多目的走行セールスマン問題,マルチコンディショニング車両ルーティング問題,複数クナップサック問題において,ソリューションの品質,速度,モデル効率の面で,他の方法よりも優れていた。
論文 参考訳(メタデータ) (2022-03-29T09:26:22Z) - Scalable Uni-directional Pareto Optimality for Multi-Task Learning with
Constraints [4.4044968357361745]
制約下での最適化を含む多目的(MOO)問題に対するスケーラブルなMOOソルバを提案する。
この重要な応用は、ニューラル分類タスクの高次元ランタイムを推定することである。
論文 参考訳(メタデータ) (2021-10-28T21:35:59Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - Discovering Diverse Solutions in Deep Reinforcement Learning [84.45686627019408]
強化学習アルゴリズムは通常、特定のタスクの単一のソリューションを学ぶことに限定される。
連続的あるいは離散的な低次元潜在変数に条件付きポリシーを訓練することにより、無限に多くの解を学習できるRL法を提案する。
論文 参考訳(メタデータ) (2021-03-12T04:54:31Z) - Multi-objective Conflict-based Search for Multi-agent Path Finding [10.354181009277623]
マルチオブジェクトパスプランナーは通常、パスの長さなどの単一の目的を最適化しながら、パスのアンサンブルを計算します。
本稿では、マルチオブジェクトコンフリクトベース検索(MO-CBS)という、いわゆる次元の呪いをバイパスする手法を紹介します。
論文 参考訳(メタデータ) (2021-01-11T10:42:38Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - Pareto Multi-Task Learning [53.90732663046125]
マルチタスク学習は複数の相関タスクを同時に解くための強力な方法である。
異なるタスクが互いに衝突する可能性があるため、すべてのタスクを最適化するひとつのソリューションを見つけることは、しばしば不可能である。
近年,マルチタスク学習を多目的最適化として活用することにより,タスク間のトレードオフが良好である1つのパレート最適解を求める方法が提案されている。
論文 参考訳(メタデータ) (2019-12-30T08:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。