論文の概要: Scalable Ride-Sourcing Vehicle Rebalancing with Service Accessibility Guarantee: A Constrained Mean-Field Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2503.24183v2
- Date: Fri, 23 May 2025 01:44:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 15:51:02.916161
- Title: Scalable Ride-Sourcing Vehicle Rebalancing with Service Accessibility Guarantee: A Constrained Mean-Field Reinforcement Learning Approach
- Title(参考訳): サービスアクセシビリティ保証によるスケーラブルなライドシェアリング車両のリバランシング:制約付き平均場強化学習アプローチ
- Authors: Matej Jusup, Kenan Zhang, Zhiyuan Hu, Barna Pásztor, Andreas Krause, Francesco Corman,
- Abstract要約: 連続状態平均場制御(MFC)と平均場強化学習(MFRL)モデルを導入する。
MFCとMFRLは、個々の車両ではなく、車両分布との相互作用を通じて各車両の挙動をモデル化することで、スケーラブルなソリューションを提供する。
我々のアプローチは数万台の車両にスケールし、トレーニング時間は1つの線形プログラミングリバランスの決定時間に匹敵する。
- 参考スコア(独自算出の注目度): 42.070187224580344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid expansion of ride-sourcing services such as Uber, Lyft, and Didi Chuxing has fundamentally reshaped urban transportation by offering flexible, on-demand mobility via mobile applications. Despite their convenience, these platforms confront significant operational challenges, particularly vehicle rebalancing - the strategic repositioning of a large group of vehicles to address spatiotemporal mismatches in supply and demand. Inadequate rebalancing not only results in prolonged rider waiting times and inefficient vehicle utilization but also leads to fairness issues, such as the inequitable distribution of service quality and disparities in driver income. To tackle these complexities, we introduce continuous-state mean-field control (MFC) and mean-field reinforcement learning (MFRL) models that employ continuous vehicle repositioning actions. MFC and MFRL offer scalable solutions by modeling each vehicle's behavior through interaction with the vehicle distribution, rather than with individual vehicles. This limits the issues arising from the curse of dimensionality inherent in traditional multi-agent methods, enabling coordination across large fleets with significantly reduced computational complexity. To ensure equitable service access across geographic regions, we integrate an accessibility constraint into both models. Extensive empirical evaluation using real-world data-driven simulation of Shenzhen demonstrates the real-time efficiency and robustness of our approach. Remarkably, it scales to tens of thousands of vehicles, with training times comparable to the decision time of a single linear programming rebalancing. Besides, policies generated by our approach effectively explore the efficiency-equity Pareto front, outperforming conventional benchmarks across key metrics like fleet utilization, fulfilled requests, and pickup distance, while ensuring equitable service access.
- Abstract(参考訳): Uber、Lyft、Didi Chuxingなどの配車サービスの急速な拡大は、モバイルアプリケーションを通じて柔軟なオンデマンドモビリティを提供することで、都市交通を根本的に変えた。
その利便性にもかかわらず、これらのプラットフォームは重要な運用上の課題、特に車両の再バランス(供給と需要の時空間的ミスマッチに対処するため、大規模な車両群を戦略的に再配置する)に直面している。
不適切な再バランスは、長時間の乗車待ち時間と非効率な車両利用をもたらすだけでなく、サービス品質の不平等な分布やドライバーの収入格差といった公平性の問題にも繋がる。
これらの複雑さに対処するために、連続車両再配置動作を用いた連続状態平均場制御(MFC)および平均場強化学習(MFRL)モデルを導入する。
MFCとMFRLは、個々の車両ではなく、車両分布との相互作用を通じて各車両の挙動をモデル化することで、スケーラブルなソリューションを提供する。
これは、従来のマルチエージェント手法に固有の次元性の呪いから生じる問題を制限するもので、計算の複雑さを著しく減らした大規模艦隊間の協調を可能にする。
地理的領域をまたいだ適切なサービスアクセスを確保するために、アクセシビリティ制約を両モデルに統合する。
実世界データ駆動型深センシミュレーションによる広範囲な実験評価は,我々のアプローチのリアルタイム効率とロバスト性を実証する。
興味深いことに、これは数万台の車両にスケールし、トレーニング時間は1つの線形プログラミングリバランスの決定時間に匹敵する。
さらに、当社のアプローチが生み出したポリシーは、効率・等価なParetoフロントを効果的に探求し、適切なサービスアクセスを確保しつつ、艦隊利用、要求の充足、ピックアップ距離といった主要な指標で従来のベンチマークを上回ります。
関連論文リスト
- GARLIC: GPT-Augmented Reinforcement Learning with Intelligent Control for Vehicle Dispatching [81.82487256783674]
GARLIC: GPT拡張強化学習のフレームワーク。
本稿では,GPT強化強化学習とインテリジェント制御のフレームワークであるGARLICについて紹介する。
論文 参考訳(メタデータ) (2024-08-19T08:23:38Z) - Shared learning of powertrain control policies for vehicle fleets [3.9325957466009203]
深部強化学習(DRL)は、燃料経済やその他のパフォーマンス指標を最適化するパワートレイン制御ポリシーを現場で学習することを目的としている。
本稿では, 蒸留グループ政策を用いて, 車両群間で共有学習を行うための新しい枠組みを提案する。
ベースラインに比べて燃料経済は平均8.5%改善している。
論文 参考訳(メタデータ) (2024-04-27T13:01:05Z) - Fairness-Enhancing Vehicle Rebalancing in the Ride-hailing System [7.531863938542706]
配車産業の急速な成長は、世界中の都市交通に革命をもたらした。
その利益にもかかわらず、保存されていない地域社会が手頃な価格の配車サービスへのアクセシビリティに制限されているため、株式の懸念が生じる。
本稿では,新しい車両再バランス手法により,アルゴリズムとライダーの公正性を両立することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-29T23:02:34Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Scalable Vehicle Re-Identification via Self-Supervision [66.2562538902156]
自動車再同定は、都市規模の車両分析システムにおいて重要な要素の1つである。
車両再設計のための最先端のソリューションの多くは、既存のre-idベンチマークの精度向上に重点を置いており、計算の複雑さを無視することが多い。
推論時間に1つのネットワークのみを使用する自己教師型学習によって、シンプルで効果的なハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:14:42Z) - A Modular and Transferable Reinforcement Learning Framework for the
Fleet Rebalancing Problem [2.299872239734834]
モデルフリー強化学習(RL)に基づく艦隊再バランスのためのモジュラーフレームワークを提案する。
動作領域のグリッド上の分布としてRL状態とアクション空間を定式化し,フレームワークをスケーラブルにする。
実世界の旅行データとネットワークデータを用いた数値実験は、このアプローチがベースライン法よりもいくつかの異なる利点があることを実証している。
論文 参考訳(メタデータ) (2021-05-27T16:32:28Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - Equilibrium Inverse Reinforcement Learning for Ride-hailing Vehicle
Network [1.599072005190786]
疎結合グラフにおける客車マッチングの問題を定式化する。
マルチエージェント環境における平衡ポリシを導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-13T03:18:44Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - A Distributed Model-Free Ride-Sharing Approach for Joint Matching,
Pricing, and Dispatching using Deep Reinforcement Learning [32.0512015286512]
我々は、動的で需要に敏感で、価格に基づく車両通行者マッチングとルート計画フレームワークを提案する。
我々の枠組みはニューヨーク市税のデータセットを用いて検証されている。
実験の結果,実時間および大規模設定におけるアプローチの有効性が示された。
論文 参考訳(メタデータ) (2020-10-05T03:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。