論文の概要: Learn to Earn: Enabling Coordination within a Ride Hailing Fleet
- arxiv url: http://arxiv.org/abs/2006.10904v2
- Date: Thu, 16 Jul 2020 17:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 04:58:27.698527
- Title: Learn to Earn: Enabling Coordination within a Ride Hailing Fleet
- Title(参考訳): Earnに学ぶ: ライドハイリング艦隊における調整の実施
- Authors: Harshal A. Chaudhari, John W. Byers and Evimaria Terzi
- Abstract要約: UberやLyftといった多面的な配車プラットフォーム上での社会福祉目標の最適化の問題について検討する。
都市全体の需要満足度と供給利用率を同時に維持しつつ、各超ローカル乗車要求に対する応答時間を最小化することを目的としている。
- 参考スコア(独自算出の注目度): 5.016829322655594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of optimizing social welfare objectives on multi sided ride
hailing platforms such as Uber, Lyft, etc., is challenging, due to misalignment
of objectives between drivers, passengers, and the platform itself. An ideal
solution aims to minimize the response time for each hyper local passenger ride
request, while simultaneously maintaining high demand satisfaction and supply
utilization across the entire city. Economists tend to rely on dynamic pricing
mechanisms that stifle price sensitive excess demand and resolve the supply
demand imbalances emerging in specific neighborhoods. In contrast, computer
scientists primarily view it as a demand prediction problem with the goal of
preemptively repositioning supply to such neighborhoods using black box
coordinated multi agent deep reinforcement learning based approaches. Here, we
introduce explainability in the existing supply repositioning approaches by
establishing the need for coordination between the drivers at specific
locations and times. Explicit need based coordination allows our framework to
use a simpler non deep reinforcement learning based approach, thereby enabling
it to explain its recommendations ex post. Moreover, it provides envy free
recommendations i.e., drivers at the same location and time do not envy one
another's future earnings. Our experimental evaluation demonstrates the
effectiveness, the robustness, and the generalizability of our framework.
Finally, in contrast to previous works, we make available a reinforcement
learning environment for end to end reproducibility of our work and to
encourage future comparative studies.
- Abstract(参考訳): uber、lyftなどの多面的配車プラットフォーム上での社会福祉目標の最適化は、ドライバー、乗客、プラットフォーム自体の目標の不一致から、課題となっている。
都市全体の需要満足度と供給利用率を同時に維持しつつ、各超ローカル乗車要求に対する応答時間を最小化することを目的としている。
経済学者は、価格に敏感な過剰需要を抑制し、特定の地域で出現する需給不均衡を解決する動的な価格メカニズムに頼りがちである。
対照的に、コンピュータ科学者は、ブラックボックスを協調した多エージェント深層強化学習に基づくアプローチを用いて、これらの地区へのプリエンプティブな供給を前提とした需要予測問題であると考えている。
ここでは,運転者の特定の場所や時刻における調整の必要性を確立することで,既存の供給再配置手法の説明可能性について紹介する。
明示的なニーズベースのコーディネーションにより、フレームワークはよりシンプルな非深層強化学習ベースのアプローチを使用できるようになる。
さらに、これはうらやましい無料のレコメンデーション、すなわち、同じ場所と時刻のドライバーがお互いの将来の利益をうらやむことはない。
実験評価の結果,フレームワークの有効性,堅牢性,汎用性が示された。
最後に,これまでの研究とは対照的に,研究のエンドツーエンド再現性向上のための強化学習環境を提供し,今後の比較研究を奨励する。
関連論文リスト
- A Reinforcement Learning Approach for Dynamic Rebalancing in
Bike-Sharing System [11.237099288412558]
自転車シェアリングシステムはエコフレンドリーな都市移動を提供し、交通渋滞と健康的な生活様式の緩和に貢献している。
駅間で自転車を再分配するための車両を用いた効果的な再バランス戦略の開発は、オペレーターにとって非常に重要である。
本稿では,複数の車両との動的再バランス問題に対する時間的強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-05T23:46:42Z) - Multi-Agent Dynamic Relational Reasoning for Social Robot Navigation [50.01551945190676]
社会ロボットナビゲーションは、日常生活の様々な状況において有用であるが、安全な人間とロボットの相互作用と効率的な軌道計画が必要である。
本稿では, 動的に進化する関係構造を明示的に推論した系統的関係推論手法を提案する。
マルチエージェント軌道予測とソーシャルロボットナビゲーションの有効性を実証する。
論文 参考訳(メタデータ) (2024-01-22T18:58:22Z) - Vehicle Dispatching and Routing of On-Demand Intercity Ride-Pooling Services: A Multi-Agent Hierarchical Reinforcement Learning Approach [4.44413304473005]
都市間配車サービスは、従来の都市間バスサービスをアップグレードする大きな可能性を秘めている。
オンラインオペレーションは、都市間の車両資源配分とプールドライド車両ルーティングの結合により、固有の複雑さに悩まされている。
本研究では,オンラインフリート管理を容易にするための2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-13T13:31:01Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Spatio-temporal Incentives Optimization for Ride-hailing Services with
Offline Deep Reinforcement Learning [7.668735431419396]
本稿では,輸送資源の利用と顧客満足度を向上させるため,需要側のオフライン強化学習手法を提案する。
我々は、時間と場所の異なる価値を学習するための深層時間学習法を採用し、その上で、乗客が需要分布を調整し、システムの供給と需要のバランスをとるように、乗車要求をインセンティブ化する。
論文 参考訳(メタデータ) (2022-11-06T23:54:38Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - Real-world Ride-hailing Vehicle Repositioning using Deep Reinforcement
Learning [52.2663102239029]
アイドルヘイリングプラットフォーム上での現実世界の車両の深層強化学習と意思決定時間計画に基づく新しい実用的枠組みを提示する。
本手法は,重み付きバッチ学習アルゴリズムを用いて乗車時の状態値関数を学習する。
配車シミュレーション環境におけるベースラインでアルゴリズムをベンチマークし、収益効率の向上における優位性を実証します。
論文 参考訳(メタデータ) (2021-03-08T05:34:05Z) - Equilibrium Inverse Reinforcement Learning for Ride-hailing Vehicle
Network [1.599072005190786]
疎結合グラフにおける客車マッチングの問題を定式化する。
マルチエージェント環境における平衡ポリシを導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-13T03:18:44Z) - A Distributed Model-Free Ride-Sharing Approach for Joint Matching,
Pricing, and Dispatching using Deep Reinforcement Learning [32.0512015286512]
我々は、動的で需要に敏感で、価格に基づく車両通行者マッチングとルート計画フレームワークを提案する。
我々の枠組みはニューヨーク市税のデータセットを用いて検証されている。
実験の結果,実時間および大規模設定におけるアプローチの有効性が示された。
論文 参考訳(メタデータ) (2020-10-05T03:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。