論文の概要: Learning Enhanced Optimisation for Routing Problems
- arxiv url: http://arxiv.org/abs/2109.08345v1
- Date: Fri, 17 Sep 2021 04:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:50:13.461732
- Title: Learning Enhanced Optimisation for Routing Problems
- Title(参考訳): ルーティング問題に対する最適化強化学習
- Authors: Nasrin Sultana, Jeffrey Chan, Tabinda Sarwar, Babak Abbasi, A. K. Qin
- Abstract要約: L2GLS(Learning to Guide Local Search)は、ルーティング問題に対する学習ベースのアプローチである。
L2GLSは、局所探索(LS)演算子の強度とペナルティ項を組み合わせ、局所最適から逃れる。
L2GLSは、他の機械学習手法よりも大きなTSPとCVRPに対して、最先端の新たな結果が得られることを示す。
- 参考スコア(独自算出の注目度): 3.747361228408185
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning approaches have shown promising results in solving routing
problems. However, there is still a substantial gap in solution quality between
machine learning and operations research algorithms. Recently, another line of
research has been introduced that fuses the strengths of machine learning and
operational research algorithms. In particular, search perturbation operators
have been used to improve the solution. Nevertheless, using the perturbation
may not guarantee a quality solution. This paper presents "Learning to Guide
Local Search" (L2GLS), a learning-based approach for routing problems that uses
a penalty term and reinforcement learning to adaptively adjust search efforts.
L2GLS combines local search (LS) operators' strengths with penalty terms to
escape local optimals. Routing problems have many practical applications, often
presetting larger instances that are still challenging for many existing
algorithms introduced in the learning to optimise field. We show that L2GLS
achieves the new state-of-the-art results on larger TSP and CVRP over other
machine learning methods.
- Abstract(参考訳): ディープラーニングアプローチはルーティング問題を解決する上で有望な結果を示している。
しかし、機械学習と運用研究アルゴリズムの間には、まだソリューションの品質にかなりのギャップがある。
近年,機械学習とオペレーショナルリサーチアルゴリズムの強みを融合させる新たな研究ラインが導入されている。
特に、探索摂動演算子は解を改善するために使われてきた。
それにもかかわらず、摂動の使用は品質ソリューションを保証できないかもしれない。
本稿では、ペナルティ項と強化学習を用いて探索作業を適応的に調整するルーティング問題に対する学習に基づくアプローチであるL2GLS(Learning to Guide Local Search)を提案する。
L2GLSは、局所探索(LS)演算子の強度とペナルティ項を組み合わせ、局所最適から逃れる。
ルーティング問題には多くの実用的な応用があり、多くの場合、フィールドを最適化する学習で導入された多くの既存のアルゴリズムに対して、依然として難しい大きなインスタンスをプリセットする。
L2GLSは、他の機械学習手法よりも大きなTSPとCVRPに対して、最先端の新たな結果が得られることを示す。
関連論文リスト
- Decision Transformer for Enhancing Neural Local Search on the Job Shop Scheduling Problem [10.316443594063173]
ジョブショップスケジューリング問題(JSSP)とその解法アルゴリズムは、何十年もの間、アカデミックと産業の両方に永続的な関心を集めてきた。
近年、機械学習(ML)は、JSSPのための既存のソリューションと新しいソリューションの構築において、より短い時間でより良いソリューションを見つけることを目的として、ますます重要な役割を担っている。
我々は、JSSP上の大規模局所探索を効率よく効果的に制御できる、Neural Local Search(NLS)と呼ばれる最先端の深層強化学習(DRL)エージェントの上に構築する。
論文 参考訳(メタデータ) (2024-09-04T13:33:38Z) - New Characterizations and Efficient Local Search for General Integer
Linear Programming [17.80124240223163]
本研究では境界解の概念を用いた線形プログラミング(ILP)の新たな特徴付けを提案する。
そこで我々は,局所探索アルゴリズムのLocal-ILPを開発した。
MIPLIBデータセットで行った実験は、大規模ハードILP問題の解法におけるアルゴリズムの有効性を示した。
論文 参考訳(メタデータ) (2023-04-29T07:22:07Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Sample-Efficient, Exploration-Based Policy Optimisation for Routing
Problems [2.6782615615913348]
本稿では,エントロピーに基づく新しい強化学習手法を提案する。
さらに、我々は、期待したリターンを最大化する、政治以外の強化学習手法を設計する。
我々のモデルは様々な経路問題に一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-05-31T09:51:48Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - Contextual Exploration Using a Linear Approximation Method Based on
Satisficing [0.0]
学習に必要な探索の量は、しばしば非常に多い。
深層強化学習はまた、人間がこれほど多くの探索を達成できないという超人的性能を持つ。
リスク感応性満足度(RS)の線形拡張である線形RS(LinRS)を提案する。
論文 参考訳(メタデータ) (2021-12-13T07:14:01Z) - An Overview and Experimental Study of Learning-based Optimization
Algorithms for Vehicle Routing Problem [49.04543375851723]
車両ルーティング問題(VRP)は典型的な離散最適化問題である。
多くの研究は、VRPを解決するための学習に基づく最適化アルゴリズムについて検討している。
本稿では、最近のこの分野の進歩を概観し、関連するアプローチをエンドツーエンドアプローチとステップバイステップアプローチに分割する。
論文 参考訳(メタデータ) (2021-07-15T02:13:03Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Learning 2-opt Heuristics for the Traveling Salesman Problem via Deep
Reinforcement Learning [2.4565068569913384]
本研究では,2オプト演算子に基づく局所的な探索勾配を深層強化学習により学習することを提案する。
学習したポリシは、ランダムな初期解よりも改善でき、従来の最先端のディープラーニング手法よりも高速に、ほぼ最適解にアプローチできることを示す。
論文 参考訳(メタデータ) (2020-04-03T14:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。