論文の概要: Reinforcement Learning for Solving Stochastic Vehicle Routing Problem
- arxiv url: http://arxiv.org/abs/2311.07708v1
- Date: Mon, 13 Nov 2023 19:46:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 16:33:06.101933
- Title: Reinforcement Learning for Solving Stochastic Vehicle Routing Problem
- Title(参考訳): 確率的車両経路問題に対する強化学習
- Authors: Zangir Iklassov, Ikboljon Sobirov, Ruben Solozabal, Martin Takac
- Abstract要約: 本研究では、車両ルーティング問題(SVRP)解決における強化学習(RL)と機械学習(ML)技術の利用のギャップを解消する。
本稿では,SVRPのキーソースを包括的に扱う新しいエンドツーエンドフレームワークを提案する。
提案モデルでは,広く採用されている最先端のメユーリスティックよりも優れた性能を示し,旅行コストの3.43%削減を実現している。
- 参考スコア(独自算出の注目度): 0.09831489366502298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study addresses a gap in the utilization of Reinforcement Learning (RL)
and Machine Learning (ML) techniques in solving the Stochastic Vehicle Routing
Problem (SVRP) that involves the challenging task of optimizing vehicle routes
under uncertain conditions. We propose a novel end-to-end framework that
comprehensively addresses the key sources of stochasticity in SVRP and utilizes
an RL agent with a simple yet effective architecture and a tailored training
method. Through comparative analysis, our proposed model demonstrates superior
performance compared to a widely adopted state-of-the-art metaheuristic,
achieving a significant 3.43% reduction in travel costs. Furthermore, the model
exhibits robustness across diverse SVRP settings, highlighting its adaptability
and ability to learn optimal routing strategies in varying environments. The
publicly available implementation of our framework serves as a valuable
resource for future research endeavors aimed at advancing RL-based solutions
for SVRP.
- Abstract(参考訳): 本研究では,不確実な条件下で車両経路を最適化するという課題を伴う確率的車両ルーティング問題(SVRP)の解決において,強化学習(RL)と機械学習(ML)技術の利用のギャップに対処する。
本稿では,svrpにおける確率性の鍵源を包括的に解決し,単純かつ効果的なアーキテクチャを持つrlエージェントとカスタマイズされたトレーニング手法を用いた,新しいエンドツーエンドフレームワークを提案する。
比較分析により,提案モデルが広く採用されているメタヒューリスティックよりも優れた性能を示し,旅行コストの3.43%削減を実現した。
さらに、モデルは多様なSVRP設定にまたがって堅牢性を示し、適応性と様々な環境で最適なルーティング戦略を学習する能力を強調している。
我々のフレームワークの公開実装は、SVRPのためのRLベースのソリューションの推進を目的とした将来の研究努力のための貴重なリソースとして役立ちます。
関連論文リスト
- Reinforcement Learning for Solving Stochastic Vehicle Routing Problem
with Time Windows [0.09831489366502298]
本稿では,時空間における車両ルーティング問題 (SVRP) の最適化のための強化学習手法を提案する。
我々は、特定の顧客時間窓とともに、不確実な旅行コストと需要を考慮に入れた新しいSVRPの定式化を開発する。
ルーティングコストを最小限に抑えるために、強化学習を通じてトレーニングされた注意ベースのニューラルネットワークが使用される。
論文 参考訳(メタデータ) (2024-02-15T07:35:29Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Learning to Solve Soft-Constrained Vehicle Routing Problems with
Lagrangian Relaxation [0.4014524824655105]
現実世界のアプリケーションにおける車両ルーティング問題(VRP)には、様々な制約が伴うことが多い。
ソフト制約付きVRPを解くために,強化学習に基づく手法を提案する。
本稿では,3種類のVRP,TSPTW(Travelling Salesman Problem with Time Windows),CVRP(Capacitated VRP),CVRPTW(Capacitated VRP with Time Windows)に適用する。
論文 参考訳(メタデータ) (2022-07-20T12:51:06Z) - Sample-Efficient, Exploration-Based Policy Optimisation for Routing
Problems [2.6782615615913348]
本稿では,エントロピーに基づく新しい強化学習手法を提案する。
さらに、我々は、期待したリターンを最大化する、政治以外の強化学習手法を設計する。
我々のモデルは様々な経路問題に一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-05-31T09:51:48Z) - Pessimistic Model Selection for Offline Deep Reinforcement Learning [56.282483586473816]
深層強化学習(DRL)は多くのアプリケーションにおいてシーケンシャルな意思決定問題を解決する大きな可能性を示している。
主要な障壁の1つは、DRLが学んだ政策の一般化性の低下につながる過度に適合する問題である。
理論的保証のあるオフラインDRLに対する悲観的モデル選択(PMS)手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T06:29:49Z) - An Overview and Experimental Study of Learning-based Optimization
Algorithms for Vehicle Routing Problem [49.04543375851723]
車両ルーティング問題(VRP)は典型的な離散最適化問題である。
多くの研究は、VRPを解決するための学習に基づく最適化アルゴリズムについて検討している。
本稿では、最近のこの分野の進歩を概観し、関連するアプローチをエンドツーエンドアプローチとステップバイステップアプローチに分割する。
論文 参考訳(メタデータ) (2021-07-15T02:13:03Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Combining Pessimism with Optimism for Robust and Efficient Model-Based
Deep Reinforcement Learning [56.17667147101263]
実世界のタスクでは、強化学習エージェントはトレーニング中に存在しない状況に遭遇する。
信頼性を確保するため、RLエージェントは最悪の状況に対して堅牢性を示す必要がある。
本稿では,Robust Hallucinated Upper-Confidence RL (RH-UCRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-18T16:50:17Z) - Learning Vehicle Routing Problems using Policy Optimisation [4.093722933440819]
最先端のアプローチは強化学習を使ってポリシーを学習し、学習ポリシーは擬似解法として機能する。
これらのアプローチは、あるケースでは優れた性能を示しているが、ルーティング問題に典型的な大きな検索空間を考えると、ポリシーの貧弱さに早すぎる可能性がある。
より多くのポリシーを提供することで探索を支援するエントロピー正規化強化学習(ERRL)を提案する。
論文 参考訳(メタデータ) (2020-12-24T14:18:56Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - Reinforcement Learning to Optimize the Logistics Distribution Routes of
Unmanned Aerial Vehicle [0.0]
本稿では,複数のノフライゾーンを含む複雑な環境下でUAVの経路計画を実現するための改良手法を提案する。
その結果,このような複雑な状況に適応するモデルの有効性と効率性が示された。
論文 参考訳(メタデータ) (2020-04-21T09:42:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。