論文の概要: Mutual Information as Intrinsic Reward of Reinforcement Learning Agents
for On-demand Ride Pooling
- arxiv url: http://arxiv.org/abs/2312.15195v2
- Date: Sun, 7 Jan 2024 12:12:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 21:49:16.773262
- Title: Mutual Information as Intrinsic Reward of Reinforcement Learning Agents
for On-demand Ride Pooling
- Title(参考訳): オンデマンドライドプーリングのための強化学習エージェントの固有報酬としての相互情報
- Authors: Xianjie Zhang, Jiahao Sun, Chen Gong, Kai Wang, Yifei Cao, Hao Chen,
Hao Chen, Yu Liu
- Abstract要約: オンデマンドの車両プールサービスにより、各車両は一度に複数の乗客にサービスを提供することができる。
既存のアルゴリズムでは、収益のみを考慮する場合が多いため、異常な配信要求を抱える場合、乗車が困難になる。
本稿では,都市を個別の配車に分割した配車作業のための配車フレームワークを提案し,これらの地域での配車に強化学習(RL)アルゴリズムを用いる。
- 参考スコア(独自算出の注目度): 19.247162142334076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of on-demand ride pooling services allows each vehicle to serve
multiple passengers at a time, thus increasing drivers' income and enabling
passengers to travel at lower prices than taxi/car on-demand services (only one
passenger can be assigned to a car at a time like UberX and Lyft). Although
on-demand ride pooling services can bring so many benefits, ride pooling
services need a well-defined matching strategy to maximize the benefits for all
parties (passengers, drivers, aggregation companies and environment), in which
the regional dispatching of vehicles has a significant impact on the matching
and revenue. Existing algorithms often only consider revenue maximization,
which makes it difficult for requests with unusual distribution to get a ride.
How to increase revenue while ensuring a reasonable assignment of requests
brings a challenge to ride pooling service companies (aggregation companies).
In this paper, we propose a framework for vehicle dispatching for ride pooling
tasks, which splits the city into discrete dispatching regions and uses the
reinforcement learning (RL) algorithm to dispatch vehicles in these regions. We
also consider the mutual information (MI) between vehicle and order
distribution as the intrinsic reward of the RL algorithm to improve the
correlation between their distributions, thus ensuring the possibility of
getting a ride for unusually distributed requests. In experimental results on a
real-world taxi dataset, we demonstrate that our framework can significantly
increase revenue up to an average of 3\% over the existing best on-demand ride
pooling method.
- Abstract(参考訳): オンデマンド配車サービスの出現により、各車両は一度に複数の乗客にサービスを提供することができ、これによりドライバーの収入が増加し、乗客はオンデマンドのタクシーや車よりも低価格で走行できる(UberXやLyftのように、一度に1人の乗客だけが車に割り当てられる)。
オンデマンドのライドプーリングサービスは、多くの利益をもたらす可能性があるが、ライドプーリングサービスは、すべてのパーティー(乗客、ドライバー、集約企業、環境)の利益を最大化するために、明確に定義されたマッチング戦略が必要である。
既存のアルゴリズムは収益の最大化のみを考えることが多いため、異常な分布を持つリクエストが乗るのは難しい。
適切なリクエストの割り当てを確保しながら収益を上げるには、相乗りサービス会社(集約企業)にとって課題となる。
本稿では,都市を個別のディスパッチ領域に分割し,これらの地域における車両のディスパッチに強化学習(RL)アルゴリズムを用いる,配車作業のための配車フレームワークを提案する。
また,車両と順序分布の相互情報(mi)をrlアルゴリズムの固有報酬として考慮し,それらの分布の相関性を改善し,異常に分散した要求に対して乗車する可能性を確保する。
実世界のタクシーデータを用いた実験の結果、当社のフレームワークは既存のオンデマンド配車方式に比べて平均3倍の収益を上げることができることを示した。
関連論文リスト
- GPT-Augmented Reinforcement Learning with Intelligent Control for Vehicle Dispatching [82.19172267487998]
GARLIC: GPT拡張強化学習のフレームワーク。
本稿では,GPT強化強化学習とインテリジェント制御のフレームワークであるGARLICについて紹介する。
論文 参考訳(メタデータ) (2024-08-19T08:23:38Z) - Fair collaborative vehicle routing: A deep multi-agent reinforcement
learning approach [49.00137468773683]
協力的な車両ルーティングは、キャリアがそれぞれの輸送要求を共有し、互いに代表して輸送要求を実行することで協力するときに発生する。
従来のゲーム理論解の概念は、特性関数がエージェントの数とともに指数関数的にスケールするので、計算に費用がかかる。
我々は,この問題を,深層マルチエージェント強化学習を用いて解決した連立交渉ゲームとしてモデル化することを提案する。
論文 参考訳(メタデータ) (2023-10-26T15:42:29Z) - Coalitional Bargaining via Reinforcement Learning: An Application to
Collaborative Vehicle Routing [49.00137468773683]
コラボレーティブ・ビークル・ルーティング(Collaborative Vehicle Routing)とは、デリバリ情報を共有し、互いに代理してデリバリ要求を実行することで、デリバリ企業が協力する場所である。
これによりスケールの経済が達成され、コスト、温室効果ガスの排出、道路渋滞が減少する。
しかし、どの会社が誰とパートナーし、それぞれの会社がどれだけの報酬を支払うべきか?
シャプリー値(英語版)やヌクレオルス(英語版)のような伝統的なゲーム理論解の概念は、協調車両ルーティング(英語版)の現実問題に対して計算することが困難である。
論文 参考訳(メタデータ) (2023-10-26T15:04:23Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - PassGoodPool: Joint Passengers and Goods Fleet Management with
Reinforcement Learning aided Pricing, Matching, and Route Planning [29.73314892749729]
本稿では,商品と旅客輸送を組み合わせた需要対応型艦隊管理フレームワークを提案する。
提案手法は,分散システムの成長に伴う計算コストを最小限に抑えるため,各車両内で独立して展開可能である。
論文 参考訳(メタデータ) (2020-11-17T23:15:03Z) - A Distributed Model-Free Ride-Sharing Approach for Joint Matching,
Pricing, and Dispatching using Deep Reinforcement Learning [32.0512015286512]
我々は、動的で需要に敏感で、価格に基づく車両通行者マッチングとルート計画フレームワークを提案する。
我々の枠組みはニューヨーク市税のデータセットを用いて検証されている。
実験の結果,実時間および大規模設定におけるアプローチの有効性が示された。
論文 参考訳(メタデータ) (2020-10-05T03:13:47Z) - Competitive Ratios for Online Multi-capacity Ridesharing [30.964687022746226]
マルチキャパシティのライドシェアリングでは、複数のリクエスト(例えば、顧客、食品、パーセル)が、異なる起源と宛先ペアが1つのリソースを旅する。
オンラインのマルチキャパシティーライドシェアリングは、基礎となるマッチンググラフが二部作にならないため、非常に難しい。
本稿では,オンラインマルチキャパシティ・ライドシェアリングの競争率に制約を課した最初のアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T20:29:21Z) - Zone pAth Construction (ZAC) based Approaches for Effective Real-Time
Ridesharing [30.964687022746226]
リアルタイムのライドシェアリングシステムにおける重要な課題は、"右"の要求をグループ化して、"右"の利用可能な車両をリアルタイムで移動させることである。
我々は、ゾーンパスを利用するミオピック(現在の要求のみに焦点を当てたライドシェアリングの割り当て)と非ミオピック(将来の要求への影響を考慮したライドシェアリング)のアプローチにコントリビュートします。
論文 参考訳(メタデータ) (2020-09-13T17:57:15Z) - Balancing Taxi Distribution in A City-Scale Dynamic Ridesharing Service:
A Hybrid Solution Based on Demand Learning [0.0]
本研究では,動的なライドシェアリングサービスにおいて,都市間のタクシー配電のバランスをとる上での課題について検討する。
本稿では,Correlated Pooling が関連ライダーの要求を収集し,Adjacency Ride-Matching が要求学習に基づくタクシーをライダーに割り当て,Greedy Idle Movement が現在利用者が必要な地域への配車なしでタクシーを誘導することを目的としたハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2020-07-27T07:08:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。