論文の概要: Multi-Objective Learning to Predict Pareto Fronts Using Hypervolume
Maximization
- arxiv url: http://arxiv.org/abs/2102.04523v1
- Date: Mon, 8 Feb 2021 20:41:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 15:00:19.162312
- Title: Multi-Objective Learning to Predict Pareto Fronts Using Hypervolume
Maximization
- Title(参考訳): ハイパーボリューム最大化を用いたパレートフロント予測のための多目的学習
- Authors: Timo M. Deist, Monika Grewal, Frank J.W.M. Dankers, Tanja
Alderliesten, Peter A.N. Bosman
- Abstract要約: 現実の問題は、しばしば多目的であり、意思決定者は、対立する目的の間のトレードオフが好ましい優先順位を特定できない。
本研究では,学習者の集合に対応する平均損失ベクトルの高体積(HV)を最大化することにより,パレートフロントを推定する新しい学習手法を提案する。
提案手法では,学習者の集合を動的損失関数で多目的に訓練し,各学習者の損失をHV最大化勾配によって重み付けする。
3つの異なる多目的タスクに対する実験は、学習者の集合の出力が実際に十分に拡散していることを示している
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world problems are often multi-objective with decision-makers unable to
specify a priori which trade-off between the conflicting objectives is
preferable. Intuitively, building machine learning solutions in such cases
would entail providing multiple predictions that span and uniformly cover the
Pareto front of all optimal trade-off solutions. We propose a novel learning
approach to estimate the Pareto front by maximizing the dominated hypervolume
(HV) of the average loss vectors corresponding to a set of learners, leveraging
established multi-objective optimization methods. In our approach, the set of
learners are trained multi-objectively with a dynamic loss function, wherein
each learner's losses are weighted by their HV maximizing gradients.
Consequently, the learners get trained according to different trade-offs on the
Pareto front, which otherwise is not guaranteed for fixed linear scalarizations
or when optimizing for specific trade-offs per learner without knowing the
shape of the Pareto front. Experiments on three different multi-objective tasks
show that the outputs of the set of learners are indeed well-spread on the
Pareto front. Further, the outputs corresponding to validation samples are also
found to closely follow the trade-offs that were learned from training samples
for our set of benchmark problems.
- Abstract(参考訳): 現実世界の問題はしばしば多対象であり、意思決定者は相反する目的間のトレードオフが望ましい優先事項を指定できない。
直感的には、このようなケースで機械学習ソリューションを構築するには、最適なトレードオフソリューションをすべてParetoの前面に散らばって均一にカバーする複数の予測を提供する必要がある。
学習者の集合に対応する平均損失ベクトルの支配的ハイパーボリューム (HV) を最大化し, 確立された多対象最適化手法を用いてパレートフロントを推定する新しい学習手法を提案する。
提案手法では,学習者の集合を動的損失関数で多目的に訓練し,各学習者の損失をHV最大化勾配によって重み付けする。
従って、学習者は、パレートフロントの形状を知らずに、固定線形スカラー化や学習者当たりの特定のトレードオフを最適化する場合には保証されない、パレートフロントの異なるトレードオフに従って訓練される。
3つの異なる多目的タスクに対する実験は、学習者の集合の出力がパレートフロントで確かにうまく伸びていることを示している。
さらに、検証サンプルに対応する出力は、ベンチマーク問題の集合のトレーニングサンプルから得られたトレードオフに密接に従っていることも分かりました。
関連論文リスト
- Pareto Inverse Reinforcement Learning for Diverse Expert Policy Generation [6.876580618014666]
本稿では,識別器の正則化のための報酬距離推定を用いて,逆強化学習(IRL)を適用する。
本稿では,多目的制御タスクにおいて,ParIRLが他のIRLアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2024-08-22T03:51:39Z) - Pareto Front Shape-Agnostic Pareto Set Learning in Multi-Objective Optimization [6.810571151954673]
既存の方法は、目的空間における選好ベクトルを決定空間における最適解にマッピングすることに依存する。
提案手法は, 事前知識を必要とせずに, パレート前面の任意の形状を処理し, パレート集合を学習することができる。
論文 参考訳(メタデータ) (2024-08-11T14:09:40Z) - Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Divide and Conquer: Provably Unveiling the Pareto Front with
Multi-Objective Reinforcement Learning [2.5115843173830252]
本稿では,Paretoフロントを単一目的問題列に分解するアルゴリズムIPROを紹介する。
実証的な評価は、IPROが追加のドメイン知識を必要とするメソッドにマッチするか、より優れていることを示している。
問題固有の単目的解法を利用することで、本手法は多目的強化学習を超える応用を約束する。
論文 参考訳(メタデータ) (2024-02-11T12:35:13Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - Pareto Manifold Learning: Tackling multiple tasks via ensembles of
single-task models [50.33956216274694]
マルチタスク学習(MTL)では、タスクは、ソリューションへの最適化を導くのではなく、互いに達成したパフォーマンスを競い、制限することができる。
重み空間におけるアンサンブル手法であるTextitPareto Manifold Learningを提案する。
論文 参考訳(メタデータ) (2022-10-18T11:20:54Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Efficient Continuous Pareto Exploration in Multi-Task Learning [34.41682709915956]
本稿では,機械学習問題における最適解の連続解析手法を提案する。
サンプルベーススパース線形システムを提案することにより、現代の機械学習問題に対する多目的最適化の理論結果をスケールアップする。
論文 参考訳(メタデータ) (2020-06-29T23:36:20Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。