論文の概要: Semi-on-Demand Transit Feeders with Shared Autonomous Vehicles and Reinforcement-Learning-Based Zonal Dispatching Control
- arxiv url: http://arxiv.org/abs/2509.01883v1
- Date: Tue, 02 Sep 2025 02:14:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.87852
- Title: Semi-on-Demand Transit Feeders with Shared Autonomous Vehicles and Reinforcement-Learning-Based Zonal Dispatching Control
- Title(参考訳): 共有自律走行車を用いたセミ・オン・デマンド・トランジット・フィーダと強化学習型ゾナル・ディスパッチング制御
- Authors: Max T. M. Ng, Roman Engelhardt, Florian Dandl, Hani S. Mahmassani, Klaus Bogenberger,
- Abstract要約: 本稿では、共有自動運転車(SAV)と強化学習(RL)に基づく地域派遣制御を用いた半オンデマンド交通供給サービスを開発する。
RLモデルの効率的な訓練の後、動的帯状制御を備えた半オンデマンドサービスは、16%の乗客を13%の一般料金で利用している。
- 参考スコア(独自算出の注目度): 2.5407305954218797
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper develops a semi-on-demand transit feeder service using shared autonomous vehicles (SAVs) and zonal dispatching control based on reinforcement learning (RL). This service combines the cost-effectiveness of fixed-route transit with the adaptability of demand-responsive transport to improve accessibility in lower-density areas. Departing from the terminus, SAVs first make scheduled fixed stops, then offer on-demand pick-ups and drop-offs in a pre-determined flexible-route area. Our deep RL model dynamically assigns vehicles to subdivided flexible-route zones in response to real-time demand fluctuations and operations, using a policy gradient algorithm - Proximal Policy Optimization. The methodology is demonstrated through agent-based simulations on a real-world bus route in Munich, Germany. Results show that after efficient training of the RL model, the semi-on-demand service with dynamic zonal control serves 16% more passengers at 13% higher generalized costs on average compared to traditional fixed-route service. The efficiency gain brought by RL control brings 2.4% more passengers at 1.4% higher costs. This study not only showcases the potential of integrating SAV feeders and machine learning techniques into public transit, but also sets the groundwork for further innovations in addressing first-mile-last-mile problems in multimodal transit systems.
- Abstract(参考訳): 本稿では、共有自動運転車(SAV)と強化学習(RL)に基づく地域派遣制御を用いた半オンデマンド交通供給サービスを開発する。
このサービスは、低密度領域のアクセシビリティを向上させるために、固定経路輸送のコスト効率と需要応答輸送の適応性を組み合わせる。
終点を離れて、SAVはまず予定されていた定点停車を行い、事前に決められたフレキシブルルートエリアでオンデマンドのピックアップとドロップオフを提供する。
当社の深部RLモデルでは,ポリシー勾配アルゴリズムであるプロキシポリシー最適化を用いて,リアルタイム需要変動と運用に対応するために,動的に車両を分割したフレキシブルルートゾーンに割り当てる。
この手法は、ミュンヘンの現実のバス路線をエージェントベースでシミュレーションすることで実証される。
その結果、RLモデルの効率的な訓練後、動的帯状制御による半オンデマンドサービスは、従来の固定ルートサービスに比べて13%高い16%の一般コストで16%の乗客に役立っていることがわかった。
RL制御による効率向上により、1.4%のコストで2.4%の乗客が増える。
この研究は、SAVフィードと機械学習技術を公共交通機関に統合する可能性を示すだけでなく、マルチモーダルトランジットシステムにおける1マイルラストマイル問題に対処する上でのさらなるイノベーションの基盤となる。
関連論文リスト
- Coordinating Ride-Pooling with Public Transit using Reward-Guided Conservative Q-Learning: An Offline Training and Online Fine-Tuning Reinforcement Learning Framework [8.212024590297895]
本稿では,Reward-Guided conservative Q-learning(RG-CQL)と呼ばれる新しい強化学習フレームワークを提案する。
本稿では,マルチモーダル交通システムの最適運用決定を学習するためのオフライントレーニングとオンライン微調整フレームワークを提案する。
私たちの革新的なオフライントレーニングとオンラインファインチューニングフレームワークは、データ効率を81.3%向上させています。
論文 参考訳(メタデータ) (2025-01-24T03:05:04Z) - A methodological framework for Resilience as a Service (RaaS) in multimodal urban transportation networks [0.0]
本研究は,サービス戦略としてのレジリエンスを通じて公共交通の混乱を管理することを目的としている。
効率よく資源を割り当て、オペレーターと乗客のコストを最小限に抑える最適化モデルを開発する。
提案手法はイル・ド・フランス、パリ、郊外のケーススタディに適用された。
論文 参考訳(メタデータ) (2024-08-30T12:22:34Z) - GARLIC: GPT-Augmented Reinforcement Learning with Intelligent Control for Vehicle Dispatching [81.82487256783674]
GARLIC: GPT拡張強化学習のフレームワーク。
本稿では,GPT強化強化学習とインテリジェント制御のフレームワークであるGARLICについて紹介する。
論文 参考訳(メタデータ) (2024-08-19T08:23:38Z) - Using Reinforcement Learning for the Three-Dimensional Loading Capacitated Vehicle Routing Problem [40.50169360761464]
効率を上げるためのソリューションとして、協調車両ルーティングが提案されている。
現在の運用研究手法は、問題の大きさを増大させる非線形スケーリングに悩まされている。
約線形時間で3次元負荷容量化車両ルーティング問題を解くための強化学習モデルを開発した。
論文 参考訳(メタデータ) (2023-07-22T18:05:28Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - DenseLight: Efficient Control for Large-scale Traffic Signals with Dense
Feedback [109.84667902348498]
交通信号制御(TSC)は、道路網における車両の平均走行時間を短縮することを目的としている。
従来のTSC手法は、深い強化学習を利用して制御ポリシーを探索する。
DenseLightは、不偏報酬関数を用いてポリシーの有効性をフィードバックする新しいRTLベースのTSC手法である。
論文 参考訳(メタデータ) (2023-06-13T05:58:57Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - PassGoodPool: Joint Passengers and Goods Fleet Management with
Reinforcement Learning aided Pricing, Matching, and Route Planning [29.73314892749729]
本稿では,商品と旅客輸送を組み合わせた需要対応型艦隊管理フレームワークを提案する。
提案手法は,分散システムの成長に伴う計算コストを最小限に抑えるため,各車両内で独立して展開可能である。
論文 参考訳(メタデータ) (2020-11-17T23:15:03Z) - Optimizing Mixed Autonomy Traffic Flow With Decentralized Autonomous
Vehicles and Multi-Agent RL [63.52264764099532]
本研究では、完全分散制御方式を用いて、混合自律環境でのボトルネックのスループットを向上させる自動運転車の能力について検討する。
この問題にマルチエージェント強化アルゴリズムを適用し、5%の浸透速度で20%から40%の浸透速度で33%までのボトルネックスループットの大幅な改善が達成できることを実証した。
論文 参考訳(メタデータ) (2020-10-30T22:06:05Z) - A Distributed Model-Free Ride-Sharing Approach for Joint Matching,
Pricing, and Dispatching using Deep Reinforcement Learning [32.0512015286512]
我々は、動的で需要に敏感で、価格に基づく車両通行者マッチングとルート計画フレームワークを提案する。
我々の枠組みはニューヨーク市税のデータセットを用いて検証されている。
実験の結果,実時間および大規模設定におけるアプローチの有効性が示された。
論文 参考訳(メタデータ) (2020-10-05T03:13:47Z) - FlexPool: A Distributed Model-Free Deep Reinforcement Learning Algorithm
for Joint Passengers & Goods Transportation [36.989179280016586]
本稿では,乗用車と貨物輸送を組み合わせることで,車両による輸送を改善することを検討する。
我々はFlexPoolを提案する。FlexPoolは分散モデルなしの深層強化学習アルゴリズムで、乗客や商品のワークロードを共同で処理する。
また,FlexPoolはフリート利用率を30%向上し,燃料効率を35%向上することを示した。
論文 参考訳(メタデータ) (2020-07-27T17:25:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。