論文の概要: Deep Reinforcement Learning for Multi-Truck Vehicle Routing Problems with Multi-Leg Demand Routes
- arxiv url: http://arxiv.org/abs/2401.08669v2
- Date: Tue, 27 Aug 2024 15:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 19:58:52.908562
- Title: Deep Reinforcement Learning for Multi-Truck Vehicle Routing Problems with Multi-Leg Demand Routes
- Title(参考訳): マルチレベル需要経路を考慮した多輪車経路問題に対する深部強化学習
- Authors: Joshua Levin, Randall Correll, Takanori Ide, Takafumi Suzuki, Takaho Saito, Alan Arai,
- Abstract要約: 既存のエンコーダ・デコーダのアテンションモデルに新たな拡張を加えて,複数のトラックとマルチレグルーティング要求を処理できるようにした。
私たちのモデルには、少数のトラックやノードに対してトレーニングを行い、大きなサプライチェーンに組み込んで、多数のトラックやノードに対するソリューションを提供するという利点があります。
- 参考スコア(独自算出の注目度): 0.9423257767158634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning (RL) has been shown to be effective in producing approximate solutions to some vehicle routing problems (VRPs), especially when using policies generated by encoder-decoder attention mechanisms. While these techniques have been quite successful for relatively simple problem instances, there are still under-researched and highly complex VRP variants for which no effective RL method has been demonstrated. In this work we focus on one such VRP variant, which contains multiple trucks and multi-leg routing requirements. In these problems, demand is required to move along sequences of nodes, instead of just from a start node to an end node. With the goal of making deep RL a viable strategy for real-world industrial-scale supply chain logistics, we develop new extensions to existing encoder-decoder attention models which allow them to handle multiple trucks and multi-leg routing requirements. Our models have the advantage that they can be trained for a small number of trucks and nodes, and then embedded into a large supply chain to yield solutions for larger numbers of trucks and nodes. We test our approach on a real supply chain environment arising in the operations of Japanese automotive parts manufacturer Aisin Corporation, and find that our algorithm outperforms Aisin's previous best solution.
- Abstract(参考訳): 深部強化学習(RL)は、特にエンコーダ・デコーダのアテンション機構によって生成されたポリシーを使用する場合、車両ルーティング問題(VRP)の近似解を生成するのに有効であることが示されている。
これらの手法は比較的単純な問題に対して非常に成功したが、まだ未研究で非常に複雑なVRP変種があり、有効なRL法は示されていない。
この作業では、複数のトラックとマルチレグルーティング要求を含む、そのようなVRPの亜種に焦点を当てます。
これらの問題では、開始ノードから終了ノードへだけではなく、ノードのシーケンスに沿って移動する必要がある。
産業規模のサプライチェーンロジスティクスの実現を目標として,既存のエンコーダ・デコーダのアテンションモデルの拡張を開発し,複数のトラックとマルチレグルーティング要求を処理できるようにした。
私たちのモデルには、少数のトラックやノードに対してトレーニングを行い、大きなサプライチェーンに組み込んで、多数のトラックやノードに対するソリューションを提供するという利点があります。
自動車部品メーカーのAisin Corporationの事業におけるサプライチェーン環境に対するアプローチを検証した結果,Aisinのこれまでのベストソリューションよりも優れたアルゴリズムが得られた。
関連論文リスト
- Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Reinforcement Learning for Multi-Truck Vehicle Routing Problems [0.0]
我々は,複雑なサプライチェーンを実現する車両ルーティングのためのエンコーダ・デコーダモデルの新たな拡張を開発する。
私たちのモデルは、たとえ少数のトラックでのみ訓練されたとしても、大規模なサプライチェーンに組み込んで、実行可能なソリューションを実現できるかを示します。
論文 参考訳(メタデータ) (2022-11-30T15:37:53Z) - Quantum Neural Networks for a Supply Chain Logistics Application [0.0]
複数のトラックと複雑な需要構造を備えたサプライチェーンロジスティクスのための車両ルーティングという,重要な問題に関する1つのハイブリッドアルゴリズムについて検討する。
量子回路を組み込んだニューラルネットワークを用いて強化学習を行う。
人間のトラックの割り当てに匹敵する結果が得られます。
論文 参考訳(メタデータ) (2022-11-30T15:35:53Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Supply Chain Logistics with Quantum and Classical Annealing Algorithms [0.0]
ノイズの多い中間スケール量子(NISQ)ハードウェアは、実用上重要なフルスケール最適化問題とほとんど互換性がない。
本研究では,サプライチェーンのロジスティクスにおいて,企業の運用規模において,実質的な商業価値,多輪車経路の問題について検討する。
我々の研究は、NASQデバイスをハイブリッド方式で応用するための車両ルーティング以外のコンテキストに適用可能な一連の技術を提供し、商業的関心事の大規模問題に応用する。
論文 参考訳(メタデータ) (2022-05-09T17:36:21Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - A Deep Reinforcement Learning Approach for Solving the Traveling
Salesman Problem with Drone [6.364514310476583]
本稿では,デコーダの隠れ状態が動作シーケンスを表現できるアテンション-LSTMデコーダハイブリッドモデルを提案する。
このようなハイブリッドモデルが,ソリューションの品質と計算効率の両面において,純粋に注意に基づくモデルを改善することを実証的に実証した。
min-max Capacitated Vehicle Routing Problem (mmCVRP) に関する実験により、ハイブリッドモデルは注意ベースモデルよりも複数車両の協調ルーティングに適していることを確認した。
論文 参考訳(メタデータ) (2021-12-22T04:59:44Z) - Deep Policy Dynamic Programming for Vehicle Routing Problems [89.96386273895985]
本稿では,学習ニューラルの強みと動的プログラミングアルゴリズムの強みを組み合わせた深層ポリシー動的プログラミング(d pdp)を提案する。
D PDPは、例の解からエッジを予測するために訓練されたディープニューラルネットワークから派生したポリシーを使用して、DP状態空間を優先し、制限する。
本研究では,旅行セールスマン問題 (TSP) と車両ルーティング問題 (VRP) の枠組みを評価し,ニューラルネットワークが(制限された)DPアルゴリズムの性能を向上させることを示す。
論文 参考訳(メタデータ) (2021-02-23T15:33:57Z) - A Quantum Annealing Approach for Dynamic Multi-Depot Capacitated Vehicle
Routing Problem [5.057312718525522]
本稿では,AQC(Adiabatic Quantum Computation)の原理に基づく量子コンピューティングアルゴリズムを提案する。
従来のアルゴリズムと比較して、車両ルーティング問題(VRP)のような最適化問題の解法において、計算上の利点が顕著に示された。
これは、輸送、物流、サプライチェーン管理の分野における実世界の応用におけるNPハード最適化問題である。
論文 参考訳(メタデータ) (2020-05-26T01:47:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。