論文の概要: Timing the Match: A Deep Reinforcement Learning Approach for Ride-Hailing and Ride-Pooling Services
- arxiv url: http://arxiv.org/abs/2503.13200v1
- Date: Mon, 17 Mar 2025 14:07:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:34:15.534701
- Title: Timing the Match: A Deep Reinforcement Learning Approach for Ride-Hailing and Ride-Pooling Services
- Title(参考訳): タイミングマッチング: ライドヒーリングとライドポーリングのための深層強化学習アプローチ
- Authors: Yiman Bao, Jie Gao, Jinke He, Frans A. Oliehoek, Oded Cats,
- Abstract要約: 本稿では、リアルタイムシステム条件に基づいていつマッチングを行うかを決定するために、深層強化学習(RL)を用いた適応型ライドマッチング戦略を提案する。
本手法は,システム状態の評価を継続的に行い,全乗客待ち時間を最小化するタイミングでマッチングを実行する。
- 参考スコア(独自算出の注目度): 17.143444035884386
- License:
- Abstract: Efficient timing in ride-matching is crucial for improving the performance of ride-hailing and ride-pooling services, as it determines the number of drivers and passengers considered in each matching process. Traditional batched matching methods often use fixed time intervals to accumulate ride requests before assigning matches. While this approach increases the number of available drivers and passengers for matching, it fails to adapt to real-time supply-demand fluctuations, often leading to longer passenger wait times and driver idle periods. To address this limitation, we propose an adaptive ride-matching strategy using deep reinforcement learning (RL) to dynamically determine when to perform matches based on real-time system conditions. Unlike fixed-interval approaches, our method continuously evaluates system states and executes matching at moments that minimize total passenger wait time. Additionally, we incorporate a potential-based reward shaping (PBRS) mechanism to mitigate sparse rewards, accelerating RL training and improving decision quality. Extensive empirical evaluations using a realistic simulator trained on real-world data demonstrate that our approach outperforms fixed-interval matching strategies, significantly reducing passenger waiting times and detour delays, thereby enhancing the overall efficiency of ride-hailing and ride-pooling systems.
- Abstract(参考訳): 配車サービスや配車サービスの性能向上には、各マッチングプロセスにおいて考慮されるドライバーや乗客の数を決定するため、効率的な配車タイミングが不可欠である。
従来のバッチマッチング手法では、マッチを割り当てる前に、固定時間間隔を使ってライドリクエストを蓄積することが多い。
このアプローチは、マッチングのために利用可能なドライバーと乗客の数を増やすが、リアルタイムの需給変動に適応できず、しばしば乗客の待ち時間とドライバーのアイドル期間が長くなる。
この制限に対処するために、リアルタイムシステム条件に基づいていつマッチングを行うかを動的に決定するために、深層強化学習(RL)を用いた適応型ライドマッチング戦略を提案する。
固定区間アプローチとは異なり,本手法はシステムの状態を連続的に評価し,全乗客待ち時間を最小化するタイミングでマッチングを実行する。
さらに、スパース報酬を軽減し、RLトレーニングを加速し、意思決定品質を向上させるために、ポテンシャルベース報酬形成(PBRS)機構を組み込んだ。
実世界のデータに基づいて訓練された現実的なシミュレータを用いた大規模な実験評価により,本手法は固定区間マッチング戦略より優れ,乗客待ち時間と遅延時間を大幅に低減し,配車システムと配車システムの全体的な効率を向上することを示した。
関連論文リスト
- Spatio-temporal Incentives Optimization for Ride-hailing Services with
Offline Deep Reinforcement Learning [7.668735431419396]
本稿では,輸送資源の利用と顧客満足度を向上させるため,需要側のオフライン強化学習手法を提案する。
我々は、時間と場所の異なる価値を学習するための深層時間学習法を採用し、その上で、乗客が需要分布を調整し、システムの供給と需要のバランスをとるように、乗車要求をインセンティブ化する。
論文 参考訳(メタデータ) (2022-11-06T23:54:38Z) - Deep Explicit Duration Switching Models for Time Series [84.33678003781908]
状態依存型と時間依存型の両方のスイッチングダイナミクスを識別できるフレキシブルモデルを提案する。
状態依存スイッチングは、リカレントな状態-スイッチ接続によって実現される。
時間依存スイッチング動作を改善するために、明示的な期間カウント変数が使用される。
論文 参考訳(メタデータ) (2021-10-26T17:35:21Z) - Deep Reinforcement Learning based Dynamic Optimization of Bus Timetable [4.337939117851783]
深層強化学習に基づくバス時刻動的最適化法(DRL-TO)を提案する。
DQN(Deep Q-Network)は、サービス期間中にバスサービスをディスパッチするかどうかを決定する決定モデルとして使用される。
DRL-TOは、リアルタイムの乗客フローに基づいて出発間隔を動的に決定し、車両の8$%を節約し、乗客の待ち時間の平均17$%を削減できる。
論文 参考訳(メタデータ) (2021-07-15T01:22:49Z) - A Deep Value-network Based Approach for Multi-Driver Order Dispatching [55.36656442934531]
そこで本研究では,注文発送のための深層強化学習に基づくソリューションを提案する。
DiDiの配車プラットフォーム上で大規模なオンラインA/Bテストを実施している。
その結果,CVNetは近年提案されているディスパッチ手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-06-08T16:27:04Z) - Improving Long-Term Metrics in Recommendation Systems using
Short-Horizon Offline RL [56.20835219296896]
セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。
我々は、セッション間のポリシーによる分散シフトを近似するショートホライズンポリシー改善(SHPI)と呼ばれる新しいバッチRLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-01T15:58:05Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - Real-world Ride-hailing Vehicle Repositioning using Deep Reinforcement
Learning [52.2663102239029]
アイドルヘイリングプラットフォーム上での現実世界の車両の深層強化学習と意思決定時間計画に基づく新しい実用的枠組みを提示する。
本手法は,重み付きバッチ学習アルゴリズムを用いて乗車時の状態値関数を学習する。
配車シミュレーション環境におけるベースラインでアルゴリズムをベンチマークし、収益効率の向上における優位性を実証します。
論文 参考訳(メタデータ) (2021-03-08T05:34:05Z) - Equilibrium Inverse Reinforcement Learning for Ride-hailing Vehicle
Network [1.599072005190786]
疎結合グラフにおける客車マッチングの問題を定式化する。
マルチエージェント環境における平衡ポリシを導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-13T03:18:44Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - Zone pAth Construction (ZAC) based Approaches for Effective Real-Time
Ridesharing [30.964687022746226]
リアルタイムのライドシェアリングシステムにおける重要な課題は、"右"の要求をグループ化して、"右"の利用可能な車両をリアルタイムで移動させることである。
我々は、ゾーンパスを利用するミオピック(現在の要求のみに焦点を当てたライドシェアリングの割り当て)と非ミオピック(将来の要求への影響を考慮したライドシェアリング)のアプローチにコントリビュートします。
論文 参考訳(メタデータ) (2020-09-13T17:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。