論文の概要: A Modular and Transferable Reinforcement Learning Framework for the
Fleet Rebalancing Problem
- arxiv url: http://arxiv.org/abs/2105.13284v1
- Date: Thu, 27 May 2021 16:32:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 19:40:02.539382
- Title: A Modular and Transferable Reinforcement Learning Framework for the
Fleet Rebalancing Problem
- Title(参考訳): 艦隊再バランス問題に対するモジュール型・移動型強化学習フレームワーク
- Authors: Erotokritos Skordilis, Yi Hou, Charles Tripp, Matthew Moniot, Peter
Graf, David Biagioni
- Abstract要約: モデルフリー強化学習(RL)に基づく艦隊再バランスのためのモジュラーフレームワークを提案する。
動作領域のグリッド上の分布としてRL状態とアクション空間を定式化し,フレームワークをスケーラブルにする。
実世界の旅行データとネットワークデータを用いた数値実験は、このアプローチがベースライン法よりもいくつかの異なる利点があることを実証している。
- 参考スコア(独自算出の注目度): 2.299872239734834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobility on demand (MoD) systems show great promise in realizing flexible and
efficient urban transportation. However, significant technical challenges arise
from operational decision making associated with MoD vehicle dispatch and fleet
rebalancing. For this reason, operators tend to employ simplified algorithms
that have been demonstrated to work well in a particular setting. To help
bridge the gap between novel and existing methods, we propose a modular
framework for fleet rebalancing based on model-free reinforcement learning (RL)
that can leverage an existing dispatch method to minimize system cost. In
particular, by treating dispatch as part of the environment dynamics, a
centralized agent can learn to intermittently direct the dispatcher to
reposition free vehicles and mitigate against fleet imbalance. We formulate RL
state and action spaces as distributions over a grid partitioning of the
operating area, making the framework scalable and avoiding the complexities
associated with multiagent RL. Numerical experiments, using real-world trip and
network data, demonstrate that this approach has several distinct advantages
over baseline methods including: improved system cost; high degree of
adaptability to the selected dispatch method; and the ability to perform
scale-invariant transfer learning between problem instances with similar
vehicle and request distributions.
- Abstract(参考訳): モビリティ・オン・デマンド(MoD)システムは、柔軟で効率的な都市交通を実現する上で大きな可能性を秘めている。
しかし、重要な技術的課題は、MoD車両の派遣と艦隊の再バランスに関連する運用上の決定によって生じる。
このため、演算子は特定の環境でうまく機能することが証明された単純化されたアルゴリズムを用いる傾向にある。
新規な手法と既存手法のギャップを埋めるために,既存のディスパッチ手法を利用してシステムコストを最小化できるモデルフリー強化学習(RL)に基づく,フリートリバランシングのためのモジュラーフレームワークを提案する。
特に、ディスパッチを環境力学の一部として扱うことにより、中央集権エージェントは、ディスパッチを断続的にフリー車両の配置を指示し、艦隊の不均衡を軽減できる。
動作領域のグリッドパーティショニング上の分布としてRLの状態と動作空間を定式化し、フレームワークをスケーラブルにし、マルチエージェントRLに関連する複雑さを回避する。
実世界の旅行データとネットワークデータを用いた数値実験により, システムコストの改善, 選択したディスパッチ法への適応性の向上, 類似した車両や要求分布を持つ問題インスタンス間のスケール不変移動学習の実施など, ベースライン法に対していくつかのメリットがあることが示された。
関連論文リスト
- Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - LLM-Assisted Light: Leveraging Large Language Model Capabilities for Human-Mimetic Traffic Signal Control in Complex Urban Environments [3.7788636451616697]
本研究は,大規模言語モデルを交通信号制御システムに統合する革新的なアプローチを導入する。
LLMを知覚と意思決定ツールのスイートで強化するハイブリッドフレームワークが提案されている。
シミュレーションの結果から,交通環境の多種性に適応するシステムの有効性が示された。
論文 参考訳(メタデータ) (2024-03-13T08:41:55Z) - Online Relocating and Matching of Ride-Hailing Services: A Model-Based
Modular Approach [7.992568451498863]
本研究は、配車プラットフォームにおける注文マッチングと車両の移動を動的に最適化する革新的モデルベースモジュラーアプローチ(MMA)を提案する。
MMAはバッチマッチングや強化学習に基づく手法よりも優れた系統的性能を達成することができる。
論文 参考訳(メタデータ) (2023-10-13T12:45:52Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Supervised Permutation Invariant Networks for Solving the CVRP with
Bounded Fleet Size [3.5235974685889397]
車両ルーティング問題などの最適化問題を解くための学習は、大きな計算上の利点をもたらす。
本研究では,アプリオリ固定数の車両を尊重しながら,スクラッチから完全なツアー計画を構築する強力な教師付きディープラーニングフレームワークを提案する。
効率的な後処理方式と組み合わせることで,教師付きアプローチはより高速かつ容易にトレーニングできるだけでなく,競争力のある結果が得られる。
論文 参考訳(メタデータ) (2022-01-05T10:32:18Z) - Relative Distributed Formation and Obstacle Avoidance with Multi-agent
Reinforcement Learning [20.401609420707867]
マルチエージェント強化学習(MARL)に基づく分散生成・障害物回避手法を提案する。
提案手法は, 障害物回避における生成誤差, 生成収束率, オンパー成功率に関して, ベースラインと比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-11-14T13:02:45Z) - Robust Dynamic Bus Control: A Distributional Multi-agent Reinforcement
Learning Approach [11.168121941015013]
バスの束縛は、バスシステムの効率性と信頼性を損なう一般的な現象である。
我々は,連続制御学習のための分散MARLフレームワーク,IQNC-Mを開発した。
提案するIQNC-Mフレームワークは,様々な極端な事象を効果的に処理できることを示す。
論文 参考訳(メタデータ) (2021-11-02T23:41:09Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z) - Multi-intersection Traffic Optimisation: A Benchmark Dataset and a
Strong Baseline [85.9210953301628]
交通信号の制御は、都市部の交通渋滞の緩和に必要不可欠である。
問題モデリングの複雑さが高いため、現在の作業の実験的な設定はしばしば矛盾する。
エンコーダ・デコーダ構造を用いた深層強化学習に基づく新規で強力なベースラインモデルを提案する。
論文 参考訳(メタデータ) (2021-01-24T03:55:39Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。