論文の概要: Automatic Construction of Parallel Algorithm Portfolios for
Multi-objective Optimization
- arxiv url: http://arxiv.org/abs/2211.09498v2
- Date: Fri, 26 May 2023 07:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 23:30:04.869877
- Title: Automatic Construction of Parallel Algorithm Portfolios for
Multi-objective Optimization
- Title(参考訳): 多目的最適化のための並列アルゴリズムポートフォリオの自動構築
- Authors: Xiasheng Ma, Shengcai Liu, Wenjing Hong
- Abstract要約: 並列ポートフォリオアルゴリズム(PAP)は,複数のMOEAを独立に動作させ,その利点を最大限に活用する。
PAPのマニュアル構築は非自明で面倒であるため、我々は高性能なPAPを自動構築することを提案する。
自動構築されたMOEA/PAPは、人間の専門家が設計した最先端のMOEAと競合する可能性さえも示している。
- 参考スコア(独自算出の注目度): 2.9649783577150837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been widely observed that there exists no universal best
Multi-objective Evolutionary Algorithm (MOEA) dominating all other MOEAs on all
possible Multi-objective Optimization Problems (MOPs). In this work, we
advocate using the Parallel Algorithm Portfolio (PAP), which runs multiple
MOEAs independently in parallel and gets the best out of them, to combine the
advantages of different MOEAs. Since the manual construction of PAPs is
non-trivial and tedious, we propose to automatically construct high-performance
PAPs for solving MOPs. Specifically, we first propose a variant of PAPs, namely
MOEAs/PAP, which can better determine the output solution set for MOPs than
conventional PAPs. Then, we present an automatic construction approach for
MOEAs/PAP with a novel performance metric for evaluating the performance of
MOEAs across multiple MOPs. Finally, we use the proposed approach to construct
a MOEAs/PAP based on a training set of MOPs and an algorithm configuration
space defined by several variants of NSGA-II. Experimental results show that
the automatically constructed MOEAs/PAP can even rival the state-of-the-art
ensemble MOEAs designed by human experts, demonstrating the huge potential of
automatic construction of PAPs in multi-objective optimization.
- Abstract(参考訳): 万能多目的進化アルゴリズム(MOEA)が、可能な全多目的最適化問題(MOP)において他のすべてのMOEAを支配下に置くことはないことが広く知られている。
本稿では,複数のmoeaを独立して並列に実行し,それらを最大限に活用し,異なるmoeaの利点を組み合わせる並列アルゴリズムポートフォリオ(parallel algorithm portfolio:pap)の利用を提唱する。
PAPのマニュアル構築は簡単で面倒なため,MPPを解くための高性能なPAPの自動構築を提案する。
具体的には、まず、従来のpapsよりもmopsの出力解セットをよりよく決定できる、moeas/papの変種を提案する。
そこで本研究では,moeas/papの自動構築手法として,複数のmopにおけるmoeasの性能評価のための新しい性能指標を提案する。
最後に,提案手法を用いてモップのトレーニングセットとnsga-iiのいくつかの変種によって定義されるアルゴリズム構成空間に基づいてmoeas/papを構築する。
実験の結果、自動構築されたMOEA/PAPは、人間の専門家が設計した最先端のMOEAと競合し、多目的最適化におけるPAPの自動構築の可能性を示した。
関連論文リスト
- EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,新しいパイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法に比べて,プリフィルスループットが平均21%向上していることが判明した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Expensive Multi-Objective Bayesian Optimization Based on Diffusion Models [17.19004913553654]
多目的ベイズ最適化(MOBO)は、様々な高価な多目的最適化問題(EMOP)において有望な性能を示した。
高価なMOBOのための合成拡散モデルに基づくパレートセット学習アルゴリズム,すなわちCDM-PSLを提案する。
提案アルゴリズムは,様々な最先端MOBOアルゴリズムと比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-05-14T14:55:57Z) - Pre-Evolved Model for Complex Multi-objective Optimization Problems [3.784829029016233]
多目的最適化問題(MOP)は、複数の目的の同時最適化を必要とする。
本稿では、MOEAが多様な複雑なMOPに対して高品質な人口を生み出すための事前進化の概念を提案する。
論文 参考訳(メタデータ) (2023-12-11T05:16:58Z) - FP3O: Enabling Proximal Policy Optimization in Multi-Agent Cooperation
with Parameter-Sharing Versatility [13.882557160892686]
既存のマルチエージェントPPOアルゴリズムは、異なるタイプのパラメータ共有と互換性がない。
我々は,FP3O(Full-Pipeline PPO)と呼ばれる実用的アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-08T07:26:35Z) - Multi-objective Pointer Network for Combinatorial Optimization [10.286195356515355]
多目的最適化問題(MOCOP)は、様々な実応用に存在している。
最適化問題に対する近似最適解を生成するために, 深部強化学習法 (DRL) が提案されている。
本研究では,MOPN(Multi-objective Pointer Network)と呼ばれる単一モデル深層強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-25T14:02:34Z) - Permutation Invariant Policy Optimization for Mean-Field Multi-Agent
Reinforcement Learning: A Principled Approach [128.62787284435007]
本稿では,平均場近似ポリシ最適化(MF-PPO)アルゴリズムを提案する。
我々は,MF-PPOが収束のサブ線形速度で世界的最適政策を達成することを証明した。
特に、置換不変ニューラルアーキテクチャによって引き起こされる誘導バイアスは、MF-PPOが既存の競合より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-18T04:35:41Z) - Model-based Multi-agent Policy Optimization with Adaptive Opponent-wise
Rollouts [52.844741540236285]
マルチエージェント強化学習(MARL)におけるモデルベース手法について検討する。
AORPO(Adaptive Opponent-wise Rollout Policy)と呼ばれる新しい分散型モデルベースのMARL法を提案する。
論文 参考訳(メタデータ) (2021-05-07T16:20:22Z) - The Surprising Effectiveness of MAPPO in Cooperative, Multi-Agent Games [67.47961797770249]
マルチエージェントPPO(MAPPO)は、集中型値関数を採用するマルチエージェントPPOバリアントである。
MAPPOは,3つの一般的なマルチエージェントテストベッドにおいて,最先端技術に匹敵する性能を実現していることを示す。
論文 参考訳(メタデータ) (2021-03-02T18:59:56Z) - Automatic Preference Based Multi-objective Evolutionary Algorithm on
Vehicle Fleet Maintenance Scheduling Optimization [16.435391367609586]
自動検出膝点領域における解を生成するために, 選好に基づく多目的進化アルゴリズムを提案する。
新たに提案したアルゴリズムは、選好領域を正確に生成し、選好領域でより良い解を得ることができる。
論文 参考訳(メタデータ) (2021-01-23T18:48:23Z) - Learning Robust State Abstractions for Hidden-Parameter Block MDPs [55.31018404591743]
我々は、ブロックMDPにインスパイアされた堅牢な状態抽象化を実現するために、HiP-MDP設定からの共通構造の概念を活用する。
マルチタスク強化学習 (MTRL) とメタ強化学習 (Meta-RL) の両方のための新しいフレームワークのインスタンス化を導出する。
論文 参考訳(メタデータ) (2020-07-14T17:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。