論文の概要: Multi-objective Pointer Network for Combinatorial Optimization
- arxiv url: http://arxiv.org/abs/2204.11860v1
- Date: Mon, 25 Apr 2022 14:02:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 12:39:18.568584
- Title: Multi-objective Pointer Network for Combinatorial Optimization
- Title(参考訳): 組合せ最適化のための多目的ポインタネットワーク
- Authors: Le-yang Gao and Rui Wang and Chuang Liu and Zhao-hong Jia
- Abstract要約: 多目的最適化問題(MOCOP)は、様々な実応用に存在している。
最適化問題に対する近似最適解を生成するために, 深部強化学習法 (DRL) が提案されている。
本研究では,MOPN(Multi-objective Pointer Network)と呼ばれる単一モデル深層強化学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.286195356515355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-objective combinatorial optimization problems (MOCOPs), one type of
complex optimization problems, widely exist in various real applications.
Although meta-heuristics have been successfully applied to address MOCOPs, the
calculation time is often much longer. Recently, a number of deep reinforcement
learning (DRL) methods have been proposed to generate approximate optimal
solutions to the combinatorial optimization problems. However, the existing
studies on DRL have seldom focused on MOCOPs. This study proposes a
single-model deep reinforcement learning framework, called multi-objective
Pointer Network (MOPN), where the input structure of PN is effectively improved
so that the single PN is capable of solving MOCOPs. In addition, two training
strategies, based on representative model and transfer learning, respectively,
are proposed to further enhance the performance of MOPN in different
application scenarios. Moreover, compared to classical meta-heuristics, MOPN
only consumes much less time on forward propagation to obtain the Pareto front.
Meanwhile, MOPN is insensitive to problem scale, meaning that a trained MOPN is
able to address MOCOPs with different scales. To verify the performance of
MOPN, extensive experiments are conducted on three multi-objective traveling
salesman problems, in comparison with one state-of-the-art model DRL-MOA and
three classical multi-objective meta-heuristics. Experimental results
demonstrate that the proposed model outperforms all the comparative methods
with only 20\% to 40\% training time of DRL-MOA.
- Abstract(参考訳): 複合最適化問題の一種である多目的組合せ最適化問題(MOCOP)は、様々な実アプリケーションに広く存在する。
メタヒューリスティックスはMOCOPにうまく適用されているが、計算時間はより長いことが多い。
近年,組合せ最適化問題に対する近似最適解を生成するための深層強化学習(drl)法が提案されている。
しかし、既存のDRLの研究はMOCOPにはほとんど焦点を当てていない。
本研究では,多目的ポインタネットワーク(MOPN)と呼ばれる単一モデル深層強化学習フレームワークを提案し,PNの入力構造を効果的に改善し,単一のPNがMOCOPを解けるようにした。
さらに, 代表モデルと伝達学習に基づく2つの学習戦略を提案し, 異なるアプリケーションシナリオにおいて, MOPNの性能をさらに向上させる。
さらに、古典的メタヒューリスティックと比較すると、mopnはパレート前線を得るために前方伝播の時間を消費するだけである。
一方、MOCOPNは問題スケールに敏感であり、訓練されたMOCOPに異なるスケールで対処することができる。
MOPNの性能を検証するため、3つの多目的旅行セールスマン問題に対して、1つの最先端モデルDRL-MOAと3つの古典的多目的メタヒューリスティックスと比較実験を行った。
実験結果から,DRL-MOAのトレーニング時間は20~40倍程度であり,比較手法のすべてより優れていた。
関連論文リスト
- Efficient and Effective Weight-Ensembling Mixture of Experts for Multi-Task Model Merging [111.8456671452411]
マルチタスク学習(MTL)は、共有モデルを利用して複数のタスクを遂行し、知識伝達を促進する。
マルチタスクモデル統合のためのウェイトエンセブリング・ミックス・オブ・エキスパート(WEMoE)手法を提案する。
WEMoEとE-WEMoEは, MTL性能, 一般化, 堅牢性の観点から, 最先端(SOTA)モデルマージ法より優れていることを示す。
論文 参考訳(メタデータ) (2024-10-29T07:16:31Z) - On-the-fly Modulation for Balanced Multimodal Learning [53.616094855778954]
マルチモーダル学習は、異なるモーダルからの情報を統合することでモデル性能を向上させることが期待されている。
広く使われている共同トレーニング戦略は、不均衡で最適化されていないユニモーダル表現につながる。
そこで本研究では,OGM(On-the-fly Prediction Modulation)とOGM(On-the-fly Gradient Modulation)の戦略を提案する。
論文 参考訳(メタデータ) (2024-10-15T13:15:50Z) - UNCO: Towards Unifying Neural Combinatorial Optimization through Large Language Model [21.232626415696267]
1つのモデルで異なるタイプの最適化問題(COP)を解決するために、統一的なニューラルネットワーク最適化フレームワークを提案する。
我々は自然言語を用いて、異なるCOPに対してテキスト分散インスタンスを定式化し、それらを大言語モデル(LLM)によって同じ埋め込み空間にエンコードする。
実験により、UNCOモデルはシングルセッショントレーニング後に複数のCOPを解決でき、伝統的なベースラインや学習ベースのベースラインに匹敵する満足なパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2024-08-22T08:42:44Z) - In Search for Architectures and Loss Functions in Multi-Objective Reinforcement Learning [0.6650227510403052]
多目的強化学習(MORL)は実世界のRL問題の複雑さに対処するために不可欠である。
MORLは、深層学習に基づく関数近似器による不安定な学習ダイナミクスのために困難である。
我々の研究は、モデルフリーのポリシー学習損失関数と異なるアーキテクチャ選択の影響を実証的に探求する。
論文 参考訳(メタデータ) (2024-07-23T19:17:47Z) - Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Hybridization of evolutionary algorithm and deep reinforcement learning
for multi-objective orienteering optimization [16.23652137705642]
多目的オリエンテーリング問題(MO-OP)は、古典的な多目的ルーティング問題である。
本研究は,MO-OPを問題分解フレームワークを用いて解くことを目的とする。
論文 参考訳(メタデータ) (2022-06-21T15:20:42Z) - Pareto Set Learning for Neural Multi-objective Combinatorial
Optimization [6.091096843566857]
多目的最適化(MOCO)の問題は、現実世界の多くのアプリケーションで見られる。
我々は,与えられたMOCO問題に対するパレート集合全体を,探索手順を伴わずに近似する学習ベースアプローチを開発した。
提案手法は,多目的走行セールスマン問題,マルチコンディショニング車両ルーティング問題,複数クナップサック問題において,ソリューションの品質,速度,モデル効率の面で,他の方法よりも優れていた。
論文 参考訳(メタデータ) (2022-03-29T09:26:22Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Multi-objective Asynchronous Successive Halving [10.632606255280649]
本稿では,非同期半減期 (ASHA) を多目的 (MO) 設定に拡張するアルゴリズムを提案する。
実験分析の結果,MO ASHAはMO HPOを大規模に実行可能であることがわかった。
我々のアルゴリズムは、この地域における将来の研究の新たなベースラインを確立する。
論文 参考訳(メタデータ) (2021-06-23T19:39:31Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。