論文の概要: Pareto Front Shape-Agnostic Pareto Set Learning in Multi-Objective Optimization
- arxiv url: http://arxiv.org/abs/2408.05778v1
- Date: Sun, 11 Aug 2024 14:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 15:37:52.212577
- Title: Pareto Front Shape-Agnostic Pareto Set Learning in Multi-Objective Optimization
- Title(参考訳): 多目的最適化におけるパレート前方形状非依存パレート集合学習
- Authors: Rongguang Ye, Longcan Chen, Wei-Bin Kou, Jinyuan Zhang, Hisao Ishibuchi,
- Abstract要約: 既存の方法は、目的空間における選好ベクトルを決定空間における最適解にマッピングすることに依存する。
提案手法は, 事前知識を必要とせずに, パレート前面の任意の形状を処理し, パレート集合を学習することができる。
- 参考スコア(独自算出の注目度): 6.810571151954673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pareto set learning (PSL) is an emerging approach for acquiring the complete Pareto set of a multi-objective optimization problem. Existing methods primarily rely on the mapping of preference vectors in the objective space to Pareto optimal solutions in the decision space. However, the sampling of preference vectors theoretically requires prior knowledge of the Pareto front shape to ensure high performance of the PSL methods. Designing a sampling strategy of preference vectors is difficult since the Pareto front shape cannot be known in advance. To make Pareto set learning work effectively in any Pareto front shape, we propose a Pareto front shape-agnostic Pareto Set Learning (GPSL) that does not require the prior information about the Pareto front. The fundamental concept behind GPSL is to treat the learning of the Pareto set as a distribution transformation problem. Specifically, GPSL can transform an arbitrary distribution into the Pareto set distribution. We demonstrate that training a neural network by maximizing hypervolume enables the process of distribution transformation. Our proposed method can handle any shape of the Pareto front and learn the Pareto set without requiring prior knowledge. Experimental results show the high performance of our proposed method on diverse test problems compared with recent Pareto set learning algorithms.
- Abstract(参考訳): Pareto set learning (PSL) は、多目的最適化問題の完全なPareto集合を得るための新しいアプローチである。
既存の方法は主に、目的空間における選好ベクトルのパレート最適解への写像に依存する。
しかし、理論上、選好ベクトルのサンプリングはPSL法の性能を確保するためにパレート前方形状の事前知識を必要とする。
好みベクトルのサンプリング戦略を設計することは、パレート前方形状を事前に知ることができないため困難である。
パレート集合学習を任意のパレート前方形状で効果的に行うために,パレート前方形状に依存しないパレート集合学習(GPSL)を提案する。
GPSLの背後にある基本的な概念は、パレート集合の学習を分布変換問題として扱うことである。
具体的には、GPSLは任意の分布をパレート集合分布に変換することができる。
ハイパーボリュームの最大化によるニューラルネットワークのトレーニングは、分散変換のプロセスを可能にすることを実証する。
提案手法は, 事前知識を必要とせずに, パレート前面の任意の形状を処理し, パレート集合を学習することができる。
実験結果から,提案手法の多種多様なテスト問題に対する性能が,最近のPareto集合学習アルゴリズムと比較された。
関連論文リスト
- Preference-Optimized Pareto Set Learning for Blackbox Optimization [1.9628841617148691]
すべての目的を同時に最適化できる単一のソリューションはありません。
典型的なMOO問題では、目的間の好みを交換する最適解(パレート集合)を見つけることが目的である。
我々の定式化は、例えば微分可能なクロスエントロピー法によって解決できる二段階最適化問題につながる。
論文 参考訳(メタデータ) (2024-08-19T13:23:07Z) - Pareto Low-Rank Adapters: Efficient Multi-Task Learning with Preferences [49.14535254003683]
PaLoRAは、タスク固有の低ランクアダプタでオリジナルのモデルを拡張する、新しいパラメータ効率の手法である。
実験の結果,PaLoRAは様々なデータセットでMTLとPFLのベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-07-10T21:25:51Z) - Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Evolutionary Preference Sampling for Pareto Set Learning [7.306693705576791]
我々は、ニューラルネットワークトレーニングのための選好ベクトルを生成する進化過程として、選好サンプリングを考慮する。
提案手法は,7つのテスト問題に対するベースラインアルゴリズムよりも高速な収束速度を有する。
論文 参考訳(メタデータ) (2024-04-12T11:58:13Z) - Data-Driven Preference Sampling for Pareto Front Learning [10.70174844791007]
本研究では,Paretoフロントエンド学習のためのデータ駆動型選好ベクトルサンプリングフレームワークを提案する。
対象関数の後方情報を用いて、サンプリング分布のパラメータを柔軟に調整する。
選好ベクトルの分布をディリクレ分布の混合として設計し、モデルの性能を向上させる。
論文 参考訳(メタデータ) (2024-04-12T11:06:22Z) - MultiZenoTravel: a Tunable Benchmark for Multi-Objective Planning with
Known Pareto Front [71.19090689055054]
多目的AI計画では、既知のPareto Frontsを示すベンチマークが不足している。
提案するベンチマーク生成器と専用ソルバは、結果のインスタンスの真のParetoを確実に計算する。
本稿では,制約された問題に対して最適な計画を示すとともに,制約された問題に対する一般的な問題を減らす方法を示す。
論文 参考訳(メタデータ) (2023-04-28T07:09:23Z) - Pareto Manifold Learning: Tackling multiple tasks via ensembles of
single-task models [50.33956216274694]
マルチタスク学習(MTL)では、タスクは、ソリューションへの最適化を導くのではなく、互いに達成したパフォーマンスを競い、制限することができる。
重み空間におけるアンサンブル手法であるTextitPareto Manifold Learningを提案する。
論文 参考訳(メタデータ) (2022-10-18T11:20:54Z) - Pareto Navigation Gradient Descent: a First-Order Algorithm for
Optimization in Pareto Set [17.617944390196286]
マルチタスク学習のような現代の機械学習アプリケーションは、複数の目的関数をトレードオフするために最適なモデルパラメータを見つける必要がある。
勾配情報のみを用いてOPT-in-Paretoを近似的に解く1次アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-17T04:07:04Z) - Learning the Pareto Front with Hypernetworks [44.72371822514582]
機械学習では、多目的最適化(MOO)の問題が一般的である。
これらの問題には最適なソリューションのセットがあり、フロントの各ポイントは、衝突する可能性のある目標間の異なるトレードオフを表す。
近年のMOO法は、損失空間において特定の望まれる光線を標的にすることができるが、ほとんどのアプローチは依然として2つの重大な制限に直面している。
論文 参考訳(メタデータ) (2020-10-08T16:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。