論文の概要: Semi-on-Demand Transit Feeders with Shared Autonomous Vehicles and Reinforcement-Learning-Based Zonal Dispatching Control
- arxiv url: http://arxiv.org/abs/2509.01883v1
- Date: Tue, 02 Sep 2025 02:14:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.87852
- Title: Semi-on-Demand Transit Feeders with Shared Autonomous Vehicles and Reinforcement-Learning-Based Zonal Dispatching Control
- Title(参考訳): 共有自律走行車を用いたセミ・オン・デマンド・トランジット・フィーダと強化学習型ゾナル・ディスパッチング制御
- Authors: Max T. M. Ng, Roman Engelhardt, Florian Dandl, Hani S. Mahmassani, Klaus Bogenberger,
- Abstract要約: 本稿では、共有自動運転車(SAV)と強化学習(RL)に基づく地域派遣制御を用いた半オンデマンド交通供給サービスを開発する。
RLモデルの効率的な訓練の後、動的帯状制御を備えた半オンデマンドサービスは、16%の乗客を13%の一般料金で利用している。
- 参考スコア(独自算出の注目度): 2.5407305954218797
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper develops a semi-on-demand transit feeder service using shared autonomous vehicles (SAVs) and zonal dispatching control based on reinforcement learning (RL). This service combines the cost-effectiveness of fixed-route transit with the adaptability of demand-responsive transport to improve accessibility in lower-density areas. Departing from the terminus, SAVs first make scheduled fixed stops, then offer on-demand pick-ups and drop-offs in a pre-determined flexible-route area. Our deep RL model dynamically assigns vehicles to subdivided flexible-route zones in response to real-time demand fluctuations and operations, using a policy gradient algorithm - Proximal Policy Optimization. The methodology is demonstrated through agent-based simulations on a real-world bus route in Munich, Germany. Results show that after efficient training of the RL model, the semi-on-demand service with dynamic zonal control serves 16% more passengers at 13% higher generalized costs on average compared to traditional fixed-route service. The efficiency gain brought by RL control brings 2.4% more passengers at 1.4% higher costs. This study not only showcases the potential of integrating SAV feeders and machine learning techniques into public transit, but also sets the groundwork for further innovations in addressing first-mile-last-mile problems in multimodal transit systems.
- Abstract(参考訳): 本稿では、共有自動運転車(SAV)と強化学習(RL)に基づく地域派遣制御を用いた半オンデマンド交通供給サービスを開発する。
このサービスは、低密度領域のアクセシビリティを向上させるために、固定経路輸送のコスト効率と需要応答輸送の適応性を組み合わせる。
終点を離れて、SAVはまず予定されていた定点停車を行い、事前に決められたフレキシブルルートエリアでオンデマンドのピックアップとドロップオフを提供する。
当社の深部RLモデルでは,ポリシー勾配アルゴリズムであるプロキシポリシー最適化を用いて,リアルタイム需要変動と運用に対応するために,動的に車両を分割したフレキシブルルートゾーンに割り当てる。
この手法は、ミュンヘンの現実のバス路線をエージェントベースでシミュレーションすることで実証される。
その結果、RLモデルの効率的な訓練後、動的帯状制御による半オンデマンドサービスは、従来の固定ルートサービスに比べて13%高い16%の一般コストで16%の乗客に役立っていることがわかった。
RL制御による効率向上により、1.4%のコストで2.4%の乗客が増える。
この研究は、SAVフィードと機械学習技術を公共交通機関に統合する可能性を示すだけでなく、マルチモーダルトランジットシステムにおける1マイルラストマイル問題に対処する上でのさらなるイノベーションの基盤となる。
関連論文リスト
- Coordinating Ride-Pooling with Public Transit using Reward-Guided Conservative Q-Learning: An Offline Training and Online Fine-Tuning Reinforcement Learning Framework [8.212024590297895]
本稿では,Reward-Guided conservative Q-learning(RG-CQL)と呼ばれる新しい強化学習フレームワークを提案する。
本稿では,マルチモーダル交通システムの最適運用決定を学習するためのオフライントレーニングとオンライン微調整フレームワークを提案する。
私たちの革新的なオフライントレーニングとオンラインファインチューニングフレームワークは、データ効率を81.3%向上させています。
論文 参考訳(メタデータ) (2025-01-24T03:05:04Z) - A methodological framework for Resilience as a Service (RaaS) in multimodal urban transportation networks [0.0]
本研究は,サービス戦略としてのレジリエンスを通じて公共交通の混乱を管理することを目的としている。
効率よく資源を割り当て、オペレーターと乗客のコストを最小限に抑える最適化モデルを開発する。
提案手法はイル・ド・フランス、パリ、郊外のケーススタディに適用された。
論文 参考訳(メタデータ) (2024-08-30T12:22:34Z) - GARLIC: GPT-Augmented Reinforcement Learning with Intelligent Control for Vehicle Dispatching [81.82487256783674]
GARLIC: GPT拡張強化学習のフレームワーク。
本稿では,GPT強化強化学習とインテリジェント制御のフレームワークであるGARLICについて紹介する。
論文 参考訳(メタデータ) (2024-08-19T08:23:38Z) - Using Reinforcement Learning for the Three-Dimensional Loading Capacitated Vehicle Routing Problem [40.50169360761464]
効率を上げるためのソリューションとして、協調車両ルーティングが提案されている。
現在の運用研究手法は、問題の大きさを増大させる非線形スケーリングに悩まされている。
約線形時間で3次元負荷容量化車両ルーティング問題を解くための強化学習モデルを開発した。
論文 参考訳(メタデータ) (2023-07-22T18:05:28Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - PassGoodPool: Joint Passengers and Goods Fleet Management with
Reinforcement Learning aided Pricing, Matching, and Route Planning [29.73314892749729]
本稿では,商品と旅客輸送を組み合わせた需要対応型艦隊管理フレームワークを提案する。
提案手法は,分散システムの成長に伴う計算コストを最小限に抑えるため,各車両内で独立して展開可能である。
論文 参考訳(メタデータ) (2020-11-17T23:15:03Z) - A Distributed Model-Free Ride-Sharing Approach for Joint Matching,
Pricing, and Dispatching using Deep Reinforcement Learning [32.0512015286512]
我々は、動的で需要に敏感で、価格に基づく車両通行者マッチングとルート計画フレームワークを提案する。
我々の枠組みはニューヨーク市税のデータセットを用いて検証されている。
実験の結果,実時間および大規模設定におけるアプローチの有効性が示された。
論文 参考訳(メタデータ) (2020-10-05T03:13:47Z) - FlexPool: A Distributed Model-Free Deep Reinforcement Learning Algorithm
for Joint Passengers & Goods Transportation [36.989179280016586]
本稿では,乗用車と貨物輸送を組み合わせることで,車両による輸送を改善することを検討する。
我々はFlexPoolを提案する。FlexPoolは分散モデルなしの深層強化学習アルゴリズムで、乗客や商品のワークロードを共同で処理する。
また,FlexPoolはフリート利用率を30%向上し,燃料効率を35%向上することを示した。
論文 参考訳(メタデータ) (2020-07-27T17:25:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。