論文の概要: Ride-Sourcing Vehicle Rebalancing with Service Accessibility Guarantees via Constrained Mean-Field Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2503.24183v1
- Date: Mon, 31 Mar 2025 15:00:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:33:04.485669
- Title: Ride-Sourcing Vehicle Rebalancing with Service Accessibility Guarantees via Constrained Mean-Field Reinforcement Learning
- Title(参考訳): 制約付き平均場強化学習によるサービスアクセシビリティ保証によるライドシェアリング車両のリバランシング
- Authors: Matej Jusup, Kenan Zhang, Zhiyuan Hu, Barna Pásztor, Andreas Krause, Francesco Corman,
- Abstract要約: Uber、Lyft、Didi Chuxingといったサービスの急速な拡大は、モバイルアプリケーションを通じてフレキシブルでオンデマンドなモビリティを提供することで、都市交通を再構築した。
不適切な再バランスは、長時間の乗車待ち時間、非効率な車両利用、不平等な配電サービスをもたらす。
我々は,各車両の正確な位置を明示し,他の車両の分布に導かれる連続配置動作を利用する連続状態平均場制御(MFC)と強化学習(MFRL)モデルを導入する。
- 参考スコア(独自算出の注目度): 42.070187224580344
- License:
- Abstract: The rapid expansion of ride-sourcing services such as Uber, Lyft, and Didi Chuxing has fundamentally reshaped urban transportation by offering flexible, on-demand mobility via mobile applications. Despite their convenience, these platforms confront significant operational challenges, particularly vehicle rebalancing - the strategic repositioning of thousands of vehicles to address spatiotemporal mismatches in supply and demand. Inadequate rebalancing results in prolonged rider waiting times, inefficient vehicle utilization, and inequitable distribution of services, leading to disparities in driver availability and income. To tackle these complexities, we introduce scalable continuous-state mean-field control (MFC) and reinforcement learning (MFRL) models that explicitly represent each vehicle's precise location and employ continuous repositioning actions guided by the distribution of other vehicles. To ensure equitable service distribution, an accessibility constraint is integrated within our optimal control formulation, balancing operational efficiency with equitable access to the service across geographic regions. Our approach acknowledges realistic conditions, including inherent stochasticity in transitions, the simultaneous occurrence of vehicle-rider matching, vehicles' rebalancing and cruising, and variability in rider behaviors. Crucially, we relax the traditional mean-field assumption of equal supply-demand volume, better reflecting practical scenarios. Extensive empirical evaluation using real-world data-driven simulation of Shenzhen demonstrates the real-time efficiency and robustness of our approach at the scale of tens of thousands of vehicles. The code is available at https://github.com/mjusup1501/mf-vehicle-rebalancing.
- Abstract(参考訳): Uber、Lyft、Didi Chuxingなどの配車サービスの急速な拡大は、モバイルアプリケーションを通じて柔軟なオンデマンドモビリティを提供することで、都市交通を根本的に変えた。
その利便性にもかかわらず、これらのプラットフォームは重要な運用上の課題、特に車両の再バランス(供給と需要の時空間的ミスマッチに対応するために数千台の車両を戦略的に再配置する)に直面している。
不適切な再バランスは、長時間の乗車待ち時間、効率の悪い車両利用、サービスの不平等な分配をもたらし、ドライバーの可用性と収入の格差をもたらす。
これらの複雑さに対処するために、我々は、各車両の正確な位置を明確に表現し、他の車両の分布に導かれる連続配置アクションを使用する、スケーラブルな連続状態平均場制御(MFC)および強化学習(MFRL)モデルを導入する。
適正なサービス配信を確保するため、アクセシビリティ制約を最適制御定式化に組み込み、運用効率と地理的領域をまたいだサービスへの公平なアクセスのバランスをとる。
当社のアプローチでは,トランジションにおける固有確率性,車両ライダマッチングの同時発生,リバランスとクルーズ,ライダーの挙動の変動など,現実的な条件を認識している。
重要なことは、我々は従来の平均的な供給需要量の仮定を緩和し、実践的なシナリオを反映している。
実世界のデータ駆動シミュレーションを用いた広範囲な実験評価は、数万台の車両において、我々のアプローチのリアルタイム効率と堅牢性を示す。
コードはhttps://github.com/mjusup1501/mf-vehicle-rebalancingで公開されている。
関連論文リスト
- GARLIC: GPT-Augmented Reinforcement Learning with Intelligent Control for Vehicle Dispatching [81.82487256783674]
GARLIC: GPT拡張強化学習のフレームワーク。
本稿では,GPT強化強化学習とインテリジェント制御のフレームワークであるGARLICについて紹介する。
論文 参考訳(メタデータ) (2024-08-19T08:23:38Z) - Shared learning of powertrain control policies for vehicle fleets [3.9325957466009203]
深部強化学習(DRL)は、燃料経済やその他のパフォーマンス指標を最適化するパワートレイン制御ポリシーを現場で学習することを目的としている。
本稿では, 蒸留グループ政策を用いて, 車両群間で共有学習を行うための新しい枠組みを提案する。
ベースラインに比べて燃料経済は平均8.5%改善している。
論文 参考訳(メタデータ) (2024-04-27T13:01:05Z) - Fairness-Enhancing Vehicle Rebalancing in the Ride-hailing System [7.531863938542706]
配車産業の急速な成長は、世界中の都市交通に革命をもたらした。
その利益にもかかわらず、保存されていない地域社会が手頃な価格の配車サービスへのアクセシビリティに制限されているため、株式の懸念が生じる。
本稿では,新しい車両再バランス手法により,アルゴリズムとライダーの公正性を両立することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-29T23:02:34Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Scalable Vehicle Re-Identification via Self-Supervision [66.2562538902156]
自動車再同定は、都市規模の車両分析システムにおいて重要な要素の1つである。
車両再設計のための最先端のソリューションの多くは、既存のre-idベンチマークの精度向上に重点を置いており、計算の複雑さを無視することが多い。
推論時間に1つのネットワークのみを使用する自己教師型学習によって、シンプルで効果的なハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:14:42Z) - A Modular and Transferable Reinforcement Learning Framework for the
Fleet Rebalancing Problem [2.299872239734834]
モデルフリー強化学習(RL)に基づく艦隊再バランスのためのモジュラーフレームワークを提案する。
動作領域のグリッド上の分布としてRL状態とアクション空間を定式化し,フレームワークをスケーラブルにする。
実世界の旅行データとネットワークデータを用いた数値実験は、このアプローチがベースライン法よりもいくつかの異なる利点があることを実証している。
論文 参考訳(メタデータ) (2021-05-27T16:32:28Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - Equilibrium Inverse Reinforcement Learning for Ride-hailing Vehicle
Network [1.599072005190786]
疎結合グラフにおける客車マッチングの問題を定式化する。
マルチエージェント環境における平衡ポリシを導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-13T03:18:44Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - A Distributed Model-Free Ride-Sharing Approach for Joint Matching,
Pricing, and Dispatching using Deep Reinforcement Learning [32.0512015286512]
我々は、動的で需要に敏感で、価格に基づく車両通行者マッチングとルート計画フレームワークを提案する。
我々の枠組みはニューヨーク市税のデータセットを用いて検証されている。
実験の結果,実時間および大規模設定におけるアプローチの有効性が示された。
論文 参考訳(メタデータ) (2020-10-05T03:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。