論文の概要: Anticipatory Fleet Repositioning for Shared-use Autonomous Mobility
Services: An Optimization and Learning-Based Approach
- arxiv url: http://arxiv.org/abs/2210.08659v2
- Date: Wed, 12 Apr 2023 20:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 17:25:12.715744
- Title: Anticipatory Fleet Repositioning for Shared-use Autonomous Mobility
Services: An Optimization and Learning-Based Approach
- Title(参考訳): 共有利用自律移動サービスのための予測フリート配置:最適化と学習に基づくアプローチ
- Authors: Monika Filipovska, Michael Hyland, Haimanti Bala
- Abstract要約: 本稿では, アイドル車両の予測再配置によるSAMS車両の効率とサービス品質の向上に焦点をあてる。
提案手法は、将来の需要を予測し、最適化に基づく割当て戦略に協力する再バランス政策を学習する。
実験では、モデルが将来の需要を予測できる能力と、訓練段階で見つからないケースへの転送可能性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The development of mobility-on-demand services, rich transportation data
sources, and autonomous vehicles (AVs) creates significant opportunities for
shared-use AV mobility services (SAMSs) to provide accessible and
demand-responsive personal mobility. SAMS fleet operation involves multiple
interrelated decisions, with a primary focus on efficiently fulfilling
passenger ride requests with a high level of service quality. This paper
focuses on improving the efficiency and service quality of a SAMS vehicle fleet
via anticipatory repositioning of idle vehicles. The rebalancing problem is
formulated as a Markov Decision Process, which we propose solving using an
advantage actor critic (A2C) reinforcement learning-based method. The proposed
approach learns a rebalancing policy that anticipates future demand and
cooperates with an optimization-based assignment strategy. The approach allows
for centralized repositioning decisions and can handle large vehicle fleets
since the problem size does not change with the fleet size. Using New York City
taxi data and an agent-based simulation tool, two versions of the A2C AV
repositioning approach are tested. The first version, A2C-AVR(A), learns to
anticipate future demand based on past observations, while the second,
A2C-AVR(B), uses demand forecasts. The models are compared to an
optimization-based rebalancing approach and show significant reduction in mean
passenger waiting times, with a slightly increased percentage of empty fleet
miles travelled. The experiments demonstrate the model's ability to anticipate
future demand and its transferability to cases unseen at the training stage.
- Abstract(参考訳): モビリティ・オン・デマンドサービス、リッチ・トランスポート・データソース、自動運転車(AV)の開発は、共有用途のAVモビリティサービス(SAMS)において、アクセシブルで需要に反応するパーソナルモビリティを提供する重要な機会を生み出している。
SAMS艦隊の運用には、複数の相互関係の判断が伴い、乗客の乗車要求を高いレベルのサービス品質で効率的に満たすことに重点が置かれている。
本稿では, アイドル車両の予測再配置によるSAMS車両の効率とサービス品質の向上に焦点をあてる。
本手法は,アドバンテージ・アクタ・アタクタ (a2c) 強化学習に基づく手法を用いて解くマルコフ決定過程として定式化されている。
提案手法は,将来の需要を予測し,最適化に基づく割当戦略と協調するリバランス政策を学習する。
このアプローチは中央集権的な配置決定を可能にし、問題のサイズが艦隊のサイズに変化しないため、大きな車両群を扱うことができる。
ニューヨーク市のタクシーデータとエージェントベースのシミュレーションツールを用いて、A2C AV再配置アプローチの2つのバージョンをテストする。
第1バージョンのA2C-AVR(A)は過去の観測に基づいて将来の需要を予測し、第2のA2C-AVR(B)は需要予測を使用する。
これらのモデルは、最適化に基づくリバランスアプローチと比較され、乗客の平均待ち時間が大幅に減少し、空の車両走行距離の割合がわずかに増加した。
実験は、モデルが将来の需要を予測できる能力と、訓練段階では見られないケースへの転送可能性を示す。
関連論文リスト
- MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
本稿では,車載メタバースにおける拡張現実(AR)サービスの学習モデルを支援するために,メタバースユーザ(MU)にインセンティブを与える新しい没入型モデルトレーディングフレームワークを提案する。
動的ネットワーク条件とプライバシの懸念を考慮して、マルチエージェントマルコフ決定プロセスとしてMSPの報酬決定を定式化する。
実験により,提案フレームワークは,実AR関連車両データセット上でのARサービスにおいて,オブジェクト検出と分類のための高価値モデルを効果的に提供できることが示されている。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Physics Enhanced Residual Policy Learning (PERPL) for safety cruising in mixed traffic platooning under actuator and communication delay [8.172286651098027]
線形制御モデルは、その単純さ、使いやすさ、安定性解析のサポートにより、車両制御に広範囲に応用されている。
一方、強化学習(RL)モデルは適応性を提供するが、解釈可能性や一般化能力の欠如に悩まされる。
本稿では,物理インフォームドポリシによって強化されたRL制御系の開発を目標とする。
論文 参考訳(メタデータ) (2024-09-23T23:02:34Z) - A methodological framework for Resilience as a Service (RaaS) in multimodal urban transportation networks [0.0]
本研究は,サービス戦略としてのレジリエンスを通じて公共交通の混乱を管理することを目的としている。
効率よく資源を割り当て、オペレーターと乗客のコストを最小限に抑える最適化モデルを開発する。
提案手法はイル・ド・フランス、パリ、郊外のケーススタディに適用された。
論文 参考訳(メタデータ) (2024-08-30T12:22:34Z) - MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - i-Rebalance: Personalized Vehicle Repositioning for Supply Demand Balance [11.720716530010323]
深部強化学習(DRL)を用いた個別車両再配置手法i-Rebalanceを提案する。
i-Re Balanceは、99人のリアルドライバーを含む実地ユーザスタディを通じて、リポジションレコメンデーションを受け入れる際のドライバーの判断を推定する。
実世界の軌道データの評価では、i-リバランスはドライバーの受け入れ率を38.07%、ドライバーの総収入を9.97%改善している。
論文 参考訳(メタデータ) (2024-01-09T08:51:56Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - A Modular and Transferable Reinforcement Learning Framework for the
Fleet Rebalancing Problem [2.299872239734834]
モデルフリー強化学習(RL)に基づく艦隊再バランスのためのモジュラーフレームワークを提案する。
動作領域のグリッド上の分布としてRL状態とアクション空間を定式化し,フレームワークをスケーラブルにする。
実世界の旅行データとネットワークデータを用いた数値実験は、このアプローチがベースライン法よりもいくつかの異なる利点があることを実証している。
論文 参考訳(メタデータ) (2021-05-27T16:32:28Z) - Model-based Multi-agent Policy Optimization with Adaptive Opponent-wise
Rollouts [52.844741540236285]
マルチエージェント強化学習(MARL)におけるモデルベース手法について検討する。
AORPO(Adaptive Opponent-wise Rollout Policy)と呼ばれる新しい分散型モデルベースのMARL法を提案する。
論文 参考訳(メタデータ) (2021-05-07T16:20:22Z) - Equilibrium Inverse Reinforcement Learning for Ride-hailing Vehicle
Network [1.599072005190786]
疎結合グラフにおける客車マッチングの問題を定式化する。
マルチエージェント環境における平衡ポリシを導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-13T03:18:44Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。