論文の概要: Many-Objective Multi-Solution Transport
- arxiv url: http://arxiv.org/abs/2403.04099v1
- Date: Wed, 6 Mar 2024 23:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 15:42:49.808039
- Title: Many-Objective Multi-Solution Transport
- Title(参考訳): 多目的マルチソリューショントランスポート
- Authors: Ziyue Li, Tian Li, Virginia Smith, Jeff Bilmes, Tianyi Zhou
- Abstract要約: many-objective multi-solution Transport (MosT) は、Paretoの多くの目的に対して複数の多様なソリューションを見つけるためのフレームワークである。
MosTはこの問題を各解に対する重み付けされた目的の2段階の最適化として定式化し、そこでは重み付けは目的と解の間の最適な輸送によって定義される。
- 参考スコア(独自算出の注目度): 36.07360460509921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimizing the performance of many objectives (instantiated by tasks or
clients) jointly with a few Pareto stationary solutions (models) is critical in
machine learning. However, previous multi-objective optimization methods often
focus on a few number of objectives and cannot scale to many objectives that
outnumber the solutions, leading to either subpar performance or ignored
objectives. We introduce Many-objective multi-solution Transport (MosT), a
framework that finds multiple diverse solutions in the Pareto front of many
objectives. Our insight is to seek multiple solutions, each performing as a
domain expert and focusing on a specific subset of objectives while
collectively covering all of them. MosT formulates the problem as a bi-level
optimization of weighted objectives for each solution, where the weights are
defined by an optimal transport between the objectives and solutions. Our
algorithm ensures convergence to Pareto stationary solutions for complementary
subsets of objectives. On a range of applications in federated learning,
multi-task learning, and mixture-of-prompt learning for LLMs, MosT distinctly
outperforms strong baselines, delivering high-quality, diverse solutions that
profile the entire Pareto frontier, thus ensuring balanced trade-offs across
many objectives.
- Abstract(参考訳): 機械学習では、いくつかのpareto定常ソリューション(モデル)と協調して、多くの目的(タスクやクライアントによって予測される)のパフォーマンスを最適化することが重要である。
しかし、従来の多目的最適化手法は、いくつかの目的に焦点をあてることが多く、ソリューションをはるかに上回る多くの目標にスケールできないため、性能が劣るか無視されるかのいずれかとなる。
多目的多解輸送(Multi-objective multi-solution Transport, MosT)は,Paretoにおける多目的多解の枠組みである。
私たちの洞察は、複数のソリューションを探し、それぞれがドメインエキスパートとして働き、目標の特定のサブセットに集中し、それらをまとめてカバーすることです。
MosT はこの問題を、各解に対する重み付けされた目的の2段階の最適化として定式化し、重み付けは目的と解の間の最適な輸送によって定義される。
本アルゴリズムは,目的の補集合に対するpareto定常解への収束を保証する。
LLMのフェデレートラーニング、マルチタスクラーニング、ミックス・オブ・プロンプトラーニングの幅広い応用において、MosTは強いベースラインを明らかに上回り、パレートフロンティア全体をプロファイルする高品質で多様なソリューションを提供し、多くの目的においてバランスの取れたトレードオフを確保する。
関連論文リスト
- Deep Pareto Reinforcement Learning for Multi-Objective Recommender Systems [60.91599969408029]
複数の目的を同時に最適化することは、レコメンデーションプラットフォームにとって重要なタスクです。
既存の多目的推薦システムは、そのような動的な関係を体系的に考慮していない。
論文 参考訳(メタデータ) (2024-07-04T02:19:49Z) - Few for Many: Tchebycheff Set Scalarization for Many-Objective Optimization [14.355588194787073]
多目的最適化は、競合する目的を1つのソリューションで最適化できない現実の多くのアプリケーションで見られる。
本稿では,多数の目的をカバーできるいくつかの代表解を見つけるために,新しいTchebycheff集合スカラー化法を提案する。
このようにして、それぞれの目的は、小さな解集合の少なくとも1つの解によってうまく対応できる。
論文 参考訳(メタデータ) (2024-05-30T03:04:57Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Multi-Target Multiplicity: Flexibility and Fairness in Target
Specification under Resource Constraints [76.84999501420938]
対象の選択が個人の結果にどのように影響するかを評価するための概念的および計算的枠組みを導入する。
目的変数選択から生じる多重度は, 1つのターゲットのほぼ最適モデルから生じるものよりも大きいことが示される。
論文 参考訳(メタデータ) (2023-06-23T18:57:14Z) - Multi-Objective GFlowNets [59.16787189214784]
本稿では,多目的最適化の文脈において,多様な候補を生成する問題について検討する。
薬物発見やマテリアルデザインといった機械学習の多くの応用において、目標は、競合する可能性のある目標のセットを同時に最適化する候補を生成することである。
GFlowNetsをベースとした多目的GFlowNets(MOGFNs)を提案する。
論文 参考訳(メタデータ) (2022-10-23T16:15:36Z) - Alleviating Search Bias in Bayesian Evolutionary Optimization with Many
Heterogeneous Objectives [9.139734850798124]
異種目的(HE-MOP)を用いた多目的最適化問題に対処する。
高速な目的に対して探索バイアスを緩和する新たな獲得関数を提案する。
提案アルゴリズムの有効性を,多目的・多目的のベンチマーク問題で検証することによって実証する。
論文 参考訳(メタデータ) (2022-08-25T17:07:40Z) - Multi-Objective Quality Diversity Optimization [2.4608515808275455]
MOME(Multi-Objective MAP-Elites)の多目的設定におけるMAP-Elitesアルゴリズムの拡張を提案する。
すなわち、MAP-Elitesグリッドアルゴリズムから受け継いだ多様性と、多目的最適化の強みを組み合わせる。
本手法は,標準的な最適化問題からロボットシミュレーションまで,いくつかのタスクで評価する。
論文 参考訳(メタデータ) (2022-02-07T10:48:28Z) - A Distributional View on Multi-Objective Policy Optimization [24.690800846837273]
大規模不変な方法で目的の好みを設定することができる多目的強化学習アルゴリズムを提案する。
フレームワーク内で異なる好みを設定することで、非支配的なソリューションの空間を追跡できることを示す。
論文 参考訳(メタデータ) (2020-05-15T13:02:17Z) - Pareto Multi-Task Learning [53.90732663046125]
マルチタスク学習は複数の相関タスクを同時に解くための強力な方法である。
異なるタスクが互いに衝突する可能性があるため、すべてのタスクを最適化するひとつのソリューションを見つけることは、しばしば不可能である。
近年,マルチタスク学習を多目的最適化として活用することにより,タスク間のトレードオフが良好である1つのパレート最適解を求める方法が提案されている。
論文 参考訳(メタデータ) (2019-12-30T08:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。