論文の概要: Hybridization of evolutionary algorithm and deep reinforcement learning
for multi-objective orienteering optimization
- arxiv url: http://arxiv.org/abs/2206.10464v1
- Date: Tue, 21 Jun 2022 15:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 12:39:06.901021
- Title: Hybridization of evolutionary algorithm and deep reinforcement learning
for multi-objective orienteering optimization
- Title(参考訳): 多目的オリエンテーリング最適化のための進化アルゴリズムと深層強化学習のハイブリッド化
- Authors: Wei Liu, Rui Wang, Tao Zhang, Kaiwen Li, Wenhua Li and Hisao Ishibuchi
- Abstract要約: 多目的オリエンテーリング問題(MO-OP)は、古典的な多目的ルーティング問題である。
本研究は,MO-OPを問題分解フレームワークを用いて解くことを目的とする。
- 参考スコア(独自算出の注目度): 16.23652137705642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-objective orienteering problems (MO-OPs) are classical multi-objective
routing problems and have received a lot of attention in the past decades. This
study seeks to solve MO-OPs through a problem-decomposition framework, that is,
a MO-OP is decomposed into a multi-objective knapsack problem (MOKP) and a
travelling salesman problem (TSP). The MOKP and TSP are then solved by a
multi-objective evolutionary algorithm (MOEA) and a deep reinforcement learning
(DRL) method, respectively. While the MOEA module is for selecting cities, the
DRL module is for planning a Hamiltonian path for these cities. An iterative
use of these two modules drives the population towards the Pareto front of
MO-OPs. The effectiveness of the proposed method is compared against NSGA-II
and NSGA-III on various types of MO-OP instances. Experimental results show
that our method exhibits the best performance on almost all the test instances,
and has shown strong generalization ability.
- Abstract(参考訳): 多目的オリエンテーリング問題(MO-OP)は古典的な多目的ルーティング問題であり、過去数十年で多くの注目を集めてきた。
本研究は,MO-OPを多目的knapsack問題(MOKP)と旅行セールスマン問題(TSP)に分解する問題分解フレームワークを用いて,MO-OPを解くことを目的とする。
MOKP と TSP はそれぞれ多目的進化アルゴリズム (MOEA) と深部強化学習 (DRL) によって解かれる。
MOEAモジュールは都市を選ぶためのものだが、DRLモジュールはこれらの都市のためのハミルトンの道を計画している。
これら2つのモジュールの反復的使用は、MO-OPのパレートフロントに人口を誘導する。
提案手法の有効性を,様々なMO-OPインスタンス上でNSGA-IIおよびNSGA-IIIと比較した。
実験結果から,本手法はほぼすべてのテストインスタンスにおいて最高の性能を示し,高い一般化能力を示した。
関連論文リスト
- Concrete Subspace Learning based Interference Elimination for Multi-task
Model Fusion [86.6191592951269]
一般的な事前訓練された大規模モデルから微調整されたマージングモデルは、様々なタスクに特化しているが、様々なタスクでうまく機能するマルチタスクモデルを構築するための安価でスケーラブルな戦略として実証されている。
本稿では、共通低次元部分空間を同定し、その共有情報トラック干渉問題を性能を犠牲にすることなく利用するための連続緩和(Concrete)部分空間学習法を提案する。
論文 参考訳(メタデータ) (2023-12-11T07:24:54Z) - Diversifying the Mixture-of-Experts Representation for Language Models
with Orthogonal Optimizer [62.41501243027603]
The Mixture of Experts (MoE)は、ディープラーニングにおいて非常に成功したテクニックとして登場した。
本研究では,MoEの専門家が多様性の専門化や欠如に失敗した同質表現問題に光を当てた。
我々は,エキスパートエンティティであるOMoEという,単純かつ高効率なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-15T07:20:28Z) - Multi-Objective Policy Gradients with Topological Constraints [108.10241442630289]
本稿では, PPOアルゴリズムの簡単な拡張により, TMDPにおけるポリシー勾配に対する新しいアルゴリズムを提案する。
シミュレーションと実ロボットの両方の目的を任意に並べた実世界の多目的ナビゲーション問題に対して,これを実証する。
論文 参考訳(メタデータ) (2022-09-15T07:22:58Z) - Multi-objective Pointer Network for Combinatorial Optimization [10.286195356515355]
多目的最適化問題(MOCOP)は、様々な実応用に存在している。
最適化問題に対する近似最適解を生成するために, 深部強化学習法 (DRL) が提案されている。
本研究では,MOPN(Multi-objective Pointer Network)と呼ばれる単一モデル深層強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-25T14:02:34Z) - MOLE: Digging Tunnels Through Multimodal Multi-Objective Landscapes [0.0]
局所的に効率的な(LE)集合は、しばしば局所探索のトラップと見なされるが、決定空間において孤立されることは滅多にない。
Multi-Objective Gradient Sliding Algorithm (MOGSA)は、これらの重ね合わせを利用するアルゴリズムの概念である。
我々は,MMMOO問題におけるLE集合を効率的にモデル化し,活用できる新しいアルゴリズムであるMulti-Objective Landscape Explorer (MOLE)を提案する。
論文 参考訳(メタデータ) (2022-04-22T17:54:54Z) - Pareto Set Learning for Neural Multi-objective Combinatorial
Optimization [6.091096843566857]
多目的最適化(MOCO)の問題は、現実世界の多くのアプリケーションで見られる。
我々は,与えられたMOCO問題に対するパレート集合全体を,探索手順を伴わずに近似する学習ベースアプローチを開発した。
提案手法は,多目的走行セールスマン問題,マルチコンディショニング車両ルーティング問題,複数クナップサック問題において,ソリューションの品質,速度,モデル効率の面で,他の方法よりも優れていた。
論文 参考訳(メタデータ) (2022-03-29T09:26:22Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - Decomposition in Decision and Objective Space for Multi-Modal
Multi-Objective Optimization [15.681236469530397]
多モード多目的最適化問題(MMMOP)はパレート最適集合内に複数の部分集合を持つ。
一般的な多目的進化的アルゴリズムは、複数の解部分集合を探索するために純粋に設計されていないが、MMMOP向けに設計されたアルゴリズムは、目的空間における劣化した性能を示す。
これは、MMMOPに対処するためのより良いアルゴリズムの設計を動機付けている。
論文 参考訳(メタデータ) (2020-06-04T03:18:47Z) - Hybrid Adaptive Evolutionary Algorithm for Multi-objective Optimization [0.0]
本稿では、MoHAEAと呼ばれるハイブリッド適応進化アルゴリズム(HAEA)の拡張として、新しい多目的アルゴリズムを提案する。
MoHAEAは、MOEA/D、pa$lambda$-MOEA/D、MOEA/D-AWA、NSGA-IIの4つの状態と比較される。
論文 参考訳(メタデータ) (2020-04-29T02:16:49Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。