論文の概要: Evolutionary Preference Sampling for Pareto Set Learning
- arxiv url: http://arxiv.org/abs/2404.08414v1
- Date: Fri, 12 Apr 2024 11:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 15:06:48.548922
- Title: Evolutionary Preference Sampling for Pareto Set Learning
- Title(参考訳): パレート・セット学習のための進化的選好サンプリング
- Authors: Rongguang Ye, Longcan Chen, Jinyuan Zhang, Hisao Ishibuchi,
- Abstract要約: 我々は、ニューラルネットワークトレーニングのための選好ベクトルを生成する進化過程として、選好サンプリングを考慮する。
提案手法は,7つのテスト問題に対するベースラインアルゴリズムよりも高速な収束速度を有する。
- 参考スコア(独自算出の注目度): 7.306693705576791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Pareto Set Learning (PSL) has been proposed for learning the entire Pareto set using a neural network. PSL employs preference vectors to scalarize multiple objectives, facilitating the learning of mappings from preference vectors to specific Pareto optimal solutions. Previous PSL methods have shown their effectiveness in solving artificial multi-objective optimization problems (MOPs) with uniform preference vector sampling. The quality of the learned Pareto set is influenced by the sampling strategy of the preference vector, and the sampling of the preference vector needs to be decided based on the Pareto front shape. However, a fixed preference sampling strategy cannot simultaneously adapt the Pareto front of multiple MOPs. To address this limitation, this paper proposes an Evolutionary Preference Sampling (EPS) strategy to efficiently sample preference vectors. Inspired by evolutionary algorithms, we consider preference sampling as an evolutionary process to generate preference vectors for neural network training. We integrate the EPS strategy into five advanced PSL methods. Extensive experiments demonstrate that our proposed method has a faster convergence speed than baseline algorithms on 7 testing problems. Our implementation is available at https://github.com/rG223/EPS.
- Abstract(参考訳): 最近、ニューラルネットワークを用いてPareto集合全体を学ぶためにPareto Set Learning (PSL)が提案されている。
PSLは選好ベクトルを用いて複数の目的をスキャラライズし、選好ベクトルから特定のパレート最適解への写像の学習を容易にする。
従来のPSL法は、一様選好ベクトルサンプリングを用いた人工多目的最適化問題(MOP)の解法の有効性を示した。
学習したPareto集合の品質は、好みベクトルのサンプリング戦略の影響を受けており、好みベクトルのサンプリングは、Pareto前方形状に基づいて決定する必要がある。
しかし、固定された選好サンプリング戦略は、複数のMOPのParetoフロントを同時に適応することはできない。
本稿では,この制限に対処するため,優先ベクトルを効率的にサンプリングするためのEPS(Evolutionary Preference Smpling)戦略を提案する。
進化的アルゴリズムに着想を得て、ニューラルネットワーク学習のための選好ベクトルを生成する進化過程として、選好サンプリングを考える。
EPS戦略を5つの先進的なPSL手法に統合する。
大規模な実験により,提案手法は7つの試験問題に対するベースラインアルゴリズムよりも高速な収束速度を有することが示された。
私たちの実装はhttps://github.com/rG223/EPS.comで公開されています。
関連論文リスト
- Data-Driven Preference Sampling for Pareto Front Learning [10.70174844791007]
本研究では,Paretoフロントエンド学習のためのデータ駆動型選好ベクトルサンプリングフレームワークを提案する。
対象関数の後方情報を用いて、サンプリング分布のパラメータを柔軟に調整する。
選好ベクトルの分布をディリクレ分布の混合として設計し、モデルの性能を向上させる。
論文 参考訳(メタデータ) (2024-04-12T11:06:22Z) - Comparing Bad Apples to Good Oranges: Aligning Large Language Models via Joint Preference Optimization [105.3612692153615]
大きな言語モデル(LLM)を整列させる一般的な手法は、人間の好みを取得することに依存する。
本稿では,命令応答対に対して協調的に好みを抽出する新たな軸を提案する。
また,LLMのアライメントを大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-31T02:05:40Z) - Combining Kernelized Autoencoding and Centroid Prediction for Dynamic
Multi-objective Optimization [3.431120541553662]
本稿では,カーネル化された自己コード進化探索と遠近法に基づく予測を組み合わせた統一パラダイムを提案する。
提案手法は,多くの複雑なベンチマーク問題に対して,最先端の5つのアルゴリズムと比較する。
論文 参考訳(メタデータ) (2023-12-02T00:24:22Z) - Thompson sampling for improved exploration in GFlowNets [75.89693358516944]
生成フローネットワーク(Generative Flow Networks, GFlowNets)は、合成対象物上の分布からのサンプリングを、学習可能なアクションポリシーを用いたシーケンシャルな意思決定問題として扱う、アモータイズされた変分推論アルゴリズムである。
2つの領域において、TS-GFNは、過去の研究で使われたオフ・ポリティクス・サーベイ・ストラテジーよりも、探索を改善し、目標分布への収束を早くすることを示す。
論文 参考訳(メタデータ) (2023-06-30T14:19:44Z) - Plug-and-Play split Gibbs sampler: embedding deep generative priors in
Bayesian inference [12.91637880428221]
本稿では, 後方分布から効率的にサンプリングするために, 可変分割を利用したプラグアンドプレイサンプリングアルゴリズムを提案する。
後方サンプリングの課題を2つの単純なサンプリング問題に分割する。
その性能は最近の最先端の最適化とサンプリング手法と比較される。
論文 参考訳(メタデータ) (2023-04-21T17:17:51Z) - Supervised Contrastive Learning as Multi-Objective Optimization for
Fine-Tuning Large Pre-trained Language Models [3.759936323189417]
教師付きコントラスト学習(SCL)は,ほとんどの分類タスクにおいて優れた性能を発揮することが示されている。
本研究では,RoBERTa言語モデルの微調整フェーズにおける多目的最適化問題としてSCL問題を定式化する。
論文 参考訳(メタデータ) (2022-09-28T15:13:58Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - Preference Exploration for Efficient Bayesian Optimization with Multiple
Outcomes [17.300690315775572]
意思決定者が好むベクトル値結果を生成する実験の最適化を検討する。
これらの選好は、閉じた形では知られていないが、DMに結果ベクトルのペアよりも好みを表現するように求めることで推定できるユーティリティ関数によって符号化される。
我々は,インタラクティブなリアルタイム嗜好学習とDMを交互に行う新しいフレームワークを開発した。
論文 参考訳(メタデータ) (2022-03-21T23:02:50Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Deep Shells: Unsupervised Shape Correspondence with Optimal Transport [52.646396621449]
本稿では,3次元形状対応のための教師なし学習手法を提案する。
提案手法は,複数のデータセット上での最先端技術よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-28T22:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。