論文の概要: SED2AM: Solving Multi-Trip Time-Dependent Vehicle Routing Problem using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2503.04085v1
- Date: Thu, 06 Mar 2025 04:47:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:12.141675
- Title: SED2AM: Solving Multi-Trip Time-Dependent Vehicle Routing Problem using Deep Reinforcement Learning
- Title(参考訳): SED2AM:Deep Reinforcement Learning を用いたマルチトリップタイム依存型車両ルーティング問題の解法
- Authors: Arash Mozhdehi, Yunli Wang, Sun Sun, Xin Wang,
- Abstract要約: 本稿では,同時デコーダ・アテンションモデル(SED2AM)と呼ばれるDRLに基づく手法を提案する。
MTTDVRP(Multi-trip time-dependent vehicle routing problem)には、最大労働時間制限が課せられる。
カナダの2つの主要都市の実世界のデータセットを用いた実験の結果、SED2AMは現在の最先端のDRLベースとメタヒューリスティックベースのベースラインを上回っている。
- 参考スコア(独自算出の注目度): 9.996212470168485
- License:
- Abstract: Deep reinforcement learning (DRL)-based frameworks, featuring Transformer-style policy networks, have demonstrated their efficacy across various vehicle routing problem (VRP) variants. However, the application of these methods to the multi-trip time-dependent vehicle routing problem (MTTDVRP) with maximum working hours constraints -- a pivotal element of urban logistics -- remains largely unexplored. This paper introduces a DRL-based method called the Simultaneous Encoder and Dual Decoder Attention Model (SED2AM), tailored for the MTTDVRP with maximum working hours constraints. The proposed method introduces a temporal locality inductive bias to the encoding module of the policy networks, enabling it to effectively account for the time-dependency in travel distance or time. The decoding module of SED2AM includes a vehicle selection decoder that selects a vehicle from the fleet, effectively associating trips with vehicles for functional multi-trip routing. Additionally, this decoding module is equipped with a trip construction decoder leveraged for constructing trips for the vehicles. This policy model is equipped with two classes of state representations, fleet state and routing state, providing the information needed for effective route construction in the presence of maximum working hours constraints. Experimental results using real-world datasets from two major Canadian cities not only show that SED2AM outperforms the current state-of-the-art DRL-based and metaheuristic-based baselines but also demonstrate its generalizability to solve larger-scale problems.
- Abstract(参考訳): トランスフォーマースタイルのポリシーネットワークを特徴とする深層強化学習(DRL)ベースのフレームワークは、様々な車両ルーティング問題(VRP)の亜種に対して有効性を実証している。
しかし, 都市ロジスティクスの重要な要素である最大労働時間制約を有するマルチトリップ時間依存型車両ルーティング問題(MTTDVRP)へのこれらの手法の適用は, 明らかにされていない。
本稿では,MTTDVRPを最大作業時間制約で調整した,DRLに基づくSED2AM(Simultaneous Encoder and Dual Decoder Attention Model)を提案する。
提案手法はポリシーネットワークの符号化モジュールに時間的局所性誘導バイアスを導入し、旅行距離や時間における時間依存性を効果的に説明できるようにする。
SED2AMの復号モジュールは、車両から車両を選択し、機能的なマルチトリップルーティングのための車両と効果的に関連付ける車両選択復号器を含む。
さらに、このデコードモジュールは、車両の旅行構築に利用された旅行建設デコーダを備えている。
このポリシーモデルは、2つの状態表現、フリート状態とルーティング状態を備えており、最大労働時間制約の存在下で効果的なルート構築に必要な情報を提供する。
カナダの2大都市における実世界のデータセットを用いた実験結果は、SED2AMが現在の最先端のDRLベースベースラインとメタヒューリスティックベースベースラインを上回っているだけでなく、より大規模な問題を解決するための一般化性も示している。
関連論文リスト
- A Coalition Game for On-demand Multi-modal 3D Automated Delivery System [4.378407481656902]
2つのオーバレイネットワークで動作するUAVとADRの連合ゲームとして,マルチモーダルな自律デリバリ最適化フレームワークを導入する。
このフレームワークは、高密度領域、道路ベースのルーティング、実際の運用課題など、都市環境におけるラストマイルデリバリに対処する。
論文 参考訳(メタデータ) (2024-12-23T03:50:29Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - Roulette-Wheel Selection-Based PSO Algorithm for Solving the Vehicle
Routing Problem with Time Windows [58.891409372784516]
本稿では,Roulette Wheel Method (RWPSO) を用いた新しいPSO手法を提案する。
RWPSOのSolomon VRPTWベンチマークデータセットを用いた実験は、RWPSOが文学の他の最先端アルゴリズムと競合していることを示している。
論文 参考訳(メタデータ) (2023-06-04T09:18:02Z) - Integrated Decision and Control for High-Level Automated Vehicles by
Mixed Policy Gradient and Its Experiment Verification [10.393343763237452]
本稿では,IDC(Integrated Decision and Control)に基づく自己進化型意思決定システムを提案する。
制約付き混合ポリシー勾配 (CMPG) と呼ばれるRLアルゴリズムは、IDCの駆動ポリシーを継続的に更新するために提案される。
実験結果から, モデルに基づく手法よりも運転能力の向上が期待できることがわかった。
論文 参考訳(メタデータ) (2022-10-19T14:58:41Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - A Software Architecture for Autonomous Vehicles: Team LRM-B Entry in the
First CARLA Autonomous Driving Challenge [49.976633450740145]
本稿では,シミュレーション都市環境における自律走行車両のナビゲーション設計について述べる。
我々のアーキテクチャは、CARLA Autonomous Driving Challengeの要件を満たすために作られました。
論文 参考訳(メタデータ) (2020-10-23T18:07:48Z) - Leveraging the Capabilities of Connected and Autonomous Vehicles and
Multi-Agent Reinforcement Learning to Mitigate Highway Bottleneck Congestion [2.0010674945048468]
RLをベースとしたマルチエージェントCAV制御モデルを提案する。
その結果、CAVのシェアが10%以下である場合でも、CAVはハイウェイ交通のボトルネックを著しく軽減することができることが示唆された。
論文 参考訳(メタデータ) (2020-10-12T03:52:10Z) - Learning to Solve Vehicle Routing Problems with Time Windows through
Joint Attention [6.155158115218501]
複数のツアーの協調行動空間に注意を払って複数のルートを同時に開始・拡張できる政策モデルを開発する。
時間窓付き車両経路問題の3つの変種に関する総合的な実験において、我々のモデルであるJAMPRは、異なる問題サイズでうまく機能し、既存の最先端建設モデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-06-16T12:08:10Z) - Multi-Vehicle Routing Problems with Soft Time Windows: A Multi-Agent
Reinforcement Learning Approach [9.717648122961483]
ソフトタイムウインドウ(MVRPSTW)を用いたマルチ車両ルーティング問題は、都市ロジスティクスシステムにおいて不可欠である。
従来の手法は計算効率と解の質のジレンマを引き起こす。
そこで本研究では,ルーティング問題の解決に要する時間的オフライントレーニングのメリットを即時評価する,Multi-Agent Attention Modelと呼ばれる新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-13T14:26:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。