論文の概要: Pareto Navigation Gradient Descent: a First-Order Algorithm for
Optimization in Pareto Set
- arxiv url: http://arxiv.org/abs/2110.08713v1
- Date: Sun, 17 Oct 2021 04:07:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 15:05:43.303163
- Title: Pareto Navigation Gradient Descent: a First-Order Algorithm for
Optimization in Pareto Set
- Title(参考訳): Pareto Navigation Gradient Descent: Pareto Setにおける最適化のための一階アルゴリズム
- Authors: Mao Ye, Qiang Liu
- Abstract要約: マルチタスク学習のような現代の機械学習アプリケーションは、複数の目的関数をトレードオフするために最適なモデルパラメータを見つける必要がある。
勾配情報のみを用いてOPT-in-Paretoを近似的に解く1次アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 17.617944390196286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many modern machine learning applications, such as multi-task learning,
require finding optimal model parameters to trade-off multiple objective
functions that may conflict with each other. The notion of the Pareto set
allows us to focus on the set of (often infinite number of) models that cannot
be strictly improved. But it does not provide an actionable procedure for
picking one or a few special models to return to practical users. In this
paper, we consider \emph{optimization in Pareto set (OPT-in-Pareto)}, the
problem of finding Pareto models that optimize an extra reference criterion
function within the Pareto set. This function can either encode a specific
preference from the users, or represent a generic diversity measure for
obtaining a set of diversified Pareto models that are representative of the
whole Pareto set. Unfortunately, despite being a highly useful framework,
efficient algorithms for OPT-in-Pareto have been largely missing, especially
for large-scale, non-convex, and non-linear objectives in deep learning. A
naive approach is to apply Riemannian manifold gradient descent on the Pareto
set, which yields a high computational cost due to the need for
eigen-calculation of Hessian matrices. We propose a first-order algorithm that
approximately solves OPT-in-Pareto using only gradient information, with both
high practical efficiency and theoretically guaranteed convergence property.
Empirically, we demonstrate that our method works efficiently for a variety of
challenging multi-task-related problems.
- Abstract(参考訳): マルチタスク学習のような現代の機械学習アプリケーションは、対立する可能性のある複数の目的関数をトレードオフするために最適なモデルパラメータを見つける必要がある。
パレート集合の概念は、厳密に改善できない(しばしば無限個の)モデルの集合に焦点を合わせることを可能にする。
しかし、実用ユーザーに戻るために1つまたはいくつかの特別なモデルを選択するための実行可能な手順を提供していません。
本稿では、パレート集合内の余剰基準関数を最適化するパレートモデルを見つける問題であるパレート集合(OPT-in-Pareto)における \emph{optimization を考える。
この関数は、ユーザからの特定の好みをエンコードするか、パレート集合全体の代表となる多角化パレートモデルのセットを取得するための一般的な多様性尺度を表すことができる。
残念ながら、非常に有用なフレームワークであるにもかかわらず、OPT-in-Paretoの効率的なアルゴリズムは、特に大規模、非凸、およびディープラーニングにおける非線形目的のために、ほとんど失われている。
ナイーブなアプローチは、パレート集合にリーマン多様体の勾配降下を適用することであるが、これはヘッセン行列の固有計算の必要性から高い計算コストをもたらす。
勾配情報のみを用いてOPT-in-Paretoを近似的に解く1次アルゴリズムを提案する。
実験により,本手法は多様なマルチタスク関連問題に対して有効であることを示す。
関連論文リスト
- Preference-Optimized Pareto Set Learning for Blackbox Optimization [1.9628841617148691]
すべての目的を同時に最適化できる単一のソリューションはありません。
典型的なMOO問題では、目的間の好みを交換する最適解(パレート集合)を見つけることが目的である。
我々の定式化は、例えば微分可能なクロスエントロピー法によって解決できる二段階最適化問題につながる。
論文 参考訳(メタデータ) (2024-08-19T13:23:07Z) - Efficient Pareto Manifold Learning with Low-Rank Structure [31.082432589391953]
マルチタスク学習は本質的に多目的最適化問題である。
そこで本研究では,複数の低ランク行列を主ネットワークに統合する手法を提案する。
パラメータの数を著しく削減し、共有された特徴の抽出を容易にする。
論文 参考訳(メタデータ) (2024-07-30T11:09:27Z) - Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
Amortized Pareto Front (MAP) を用いた新しい低演算アルゴリズム Model Merging を導入する。
MAPは、複数のモデルをマージするためのスケーリング係数のセットを効率的に識別し、関連するトレードオフを反映する。
また,タスク数が比較的少ないシナリオではベイジアンMAP,タスク数の多い状況ではNested MAPを導入し,計算コストを削減した。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - MultiZenoTravel: a Tunable Benchmark for Multi-Objective Planning with
Known Pareto Front [71.19090689055054]
多目的AI計画では、既知のPareto Frontsを示すベンチマークが不足している。
提案するベンチマーク生成器と専用ソルバは、結果のインスタンスの真のParetoを確実に計算する。
本稿では,制約された問題に対して最適な計画を示すとともに,制約された問題に対する一般的な問題を減らす方法を示す。
論文 参考訳(メタデータ) (2023-04-28T07:09:23Z) - Pareto Manifold Learning: Tackling multiple tasks via ensembles of
single-task models [50.33956216274694]
マルチタスク学習(MTL)では、タスクは、ソリューションへの最適化を導くのではなく、互いに達成したパフォーマンスを競い、制限することができる。
重み空間におけるアンサンブル手法であるTextitPareto Manifold Learningを提案する。
論文 参考訳(メタデータ) (2022-10-18T11:20:54Z) - Pareto Set Learning for Expensive Multi-Objective Optimization [5.419608513284392]
膨大な多目的最適化問題は、多くの現実世界のアプリケーションで見られる。
本稿では,MOBOのパレート集合全体を近似する学習に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-16T09:41:54Z) - A Hybrid 2-stage Neural Optimization for Pareto Front Extraction [3.918940900258555]
最適なトレードオフソリューションに対する大きな障害は、それらが必ずしも互いに収束しないことです。
正確かつ費用対効果の高い二段階アプローチを提案する。
論文 参考訳(メタデータ) (2021-01-27T20:56:19Z) - Pareto Multi-Task Learning [53.90732663046125]
マルチタスク学習は複数の相関タスクを同時に解くための強力な方法である。
異なるタスクが互いに衝突する可能性があるため、すべてのタスクを最適化するひとつのソリューションを見つけることは、しばしば不可能である。
近年,マルチタスク学習を多目的最適化として活用することにより,タスク間のトレードオフが良好である1つのパレート最適解を求める方法が提案されている。
論文 参考訳(メタデータ) (2019-12-30T08:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。