論文の概要: Anticipatory Fleet Repositioning for Shared-use Autonomous Mobility
Services: An Optimization and Learning-Based Approach
- arxiv url: http://arxiv.org/abs/2210.08659v1
- Date: Sun, 16 Oct 2022 23:30:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:14:20.190831
- Title: Anticipatory Fleet Repositioning for Shared-use Autonomous Mobility
Services: An Optimization and Learning-Based Approach
- Title(参考訳): 共有利用自律移動サービスのための予測フリート配置:最適化と学習に基づくアプローチ
- Authors: Monika Filipovska, Michael Hyland, Haimanti Bala
- Abstract要約: 本稿では, 将来の需要に対応するために, アイドル車両をSAMS艦隊に配置する際の課題に着目する。
A2C-AVR(A)とA2C-AVR(B)の2つのバージョンがテストされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the development of mobility-on-demand services, increasing sources of
rich transportation data, and the advent of autonomous vehicles (AVs), there
are significant opportunities for shared-use AV mobility services (SAMSs) to
provide accessible and demand-responsive personal mobility. This paper focuses
on the problem of anticipatory repositioning of idle vehicles in a SAMS fleet
to enable better assignment decisions in serving future demand. The rebalancing
problem is formulated as a Markov Decision Process and a reinforcement learning
approach using an advantage actor critic (A2C) method is proposed to learn a
rebalancing policy that anticipates future demand and cooperates with an
optimization-based assignment strategy. The proposed formulation and solution
approach allow for centralized repositioning decisions for the entire vehicle
fleet but ensure that the problem size does not change with the size of the
vehicle fleet. Using an agent-based simulation tool and New York City taxi data
to simulate demand for rides in a SAMS system, two versions of the A2C AV
repositioning approach are tested: A2C-AVR(A) observing past demand for rides
and learning to anticipate future demand, and A2C-AVR(B) that receives demand
forecasts. Numerical experiments demonstrate that the A2C-AVR approaches
significantly reduce mean passenger wait times relative to an alternative
optimization-based rebalancing approach, at the expense of slightly increased
percentage of empty fleet miles travelled. The experiments show comparable
performance between the A2C-AVR(A) and (B), indicating that the approach can
anticipate future demand based on past demand observations. Testing with
various demand and time-of-day scenarios, and an alternative assignment
strategy, experiments demonstrate the models transferability to cases unseen at
the training stage.
- Abstract(参考訳): モビリティ・オン・デマンド・サービスの開発、リッチ・トランスポート・データの供給源の増加、自動運転車(AV)の出現などにより、アクセシブルで需要に反応する個人モビリティを提供するために、共有用途のAVモビリティ・サービス(SAMS)が大きなチャンスとなる。
本稿では, 将来の需要に対応するために, アイドル車両をSAMS艦隊に配置する際の課題に着目する。
この再バランス問題はマルコフ決定プロセスとして定式化され、将来の需要を予測し、最適化に基づく割当て戦略に協力する再バランス政策を学ぶために、アドバンテージアクタ評論家(A2C)法を用いた強化学習アプローチが提案される。
提案された定式化と解法は、車両全体の集中的な再配置決定を可能にするが、問題のサイズが車両全体のサイズによって変化しないことを保証する。
エージェントベースのシミュレーションツールとニューヨーク市のタクシーデータを用いて、SAMSシステムにおける乗車需要をシミュレートし、A2C-AVR(A)の過去需要を観察し、将来の需要を予測するA2C-AVR(B)と、需要予測を受信するA2C-AVR(B)の2つのバージョンをテストした。
数値実験により、a2c-avrアプローチは乗客の平均待ち時間を、代替最適化に基づくリバランスアプローチと比較して大幅に削減することが示された。
実験では,A2C-AVR(A)と(B)の同等の性能を示し,過去の需要観測に基づいて将来の需要を予測できることを示した。
様々な要求と時間のシナリオ、および代替の割り当て戦略でテストすると、実験はトレーニング段階で認識できないケースへのモデル転送可能性を示す。
関連論文リスト
- MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
本稿では,車載メタバースにおける拡張現実(AR)サービスの学習モデルを支援するために,メタバースユーザ(MU)にインセンティブを与える新しい没入型モデルトレーディングフレームワークを提案する。
動的ネットワーク条件とプライバシの懸念を考慮して、マルチエージェントマルコフ決定プロセスとしてMSPの報酬決定を定式化する。
実験により,提案フレームワークは,実AR関連車両データセット上でのARサービスにおいて,オブジェクト検出と分類のための高価値モデルを効果的に提供できることが示されている。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Physics Enhanced Residual Policy Learning (PERPL) for safety cruising in mixed traffic platooning under actuator and communication delay [8.172286651098027]
線形制御モデルは、その単純さ、使いやすさ、安定性解析のサポートにより、車両制御に広範囲に応用されている。
一方、強化学習(RL)モデルは適応性を提供するが、解釈可能性や一般化能力の欠如に悩まされる。
本稿では,物理インフォームドポリシによって強化されたRL制御系の開発を目標とする。
論文 参考訳(メタデータ) (2024-09-23T23:02:34Z) - A methodological framework for Resilience as a Service (RaaS) in multimodal urban transportation networks [0.0]
本研究は,サービス戦略としてのレジリエンスを通じて公共交通の混乱を管理することを目的としている。
効率よく資源を割り当て、オペレーターと乗客のコストを最小限に抑える最適化モデルを開発する。
提案手法はイル・ド・フランス、パリ、郊外のケーススタディに適用された。
論文 参考訳(メタデータ) (2024-08-30T12:22:34Z) - MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - i-Rebalance: Personalized Vehicle Repositioning for Supply Demand Balance [11.720716530010323]
深部強化学習(DRL)を用いた個別車両再配置手法i-Rebalanceを提案する。
i-Re Balanceは、99人のリアルドライバーを含む実地ユーザスタディを通じて、リポジションレコメンデーションを受け入れる際のドライバーの判断を推定する。
実世界の軌道データの評価では、i-リバランスはドライバーの受け入れ率を38.07%、ドライバーの総収入を9.97%改善している。
論文 参考訳(メタデータ) (2024-01-09T08:51:56Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - A Modular and Transferable Reinforcement Learning Framework for the
Fleet Rebalancing Problem [2.299872239734834]
モデルフリー強化学習(RL)に基づく艦隊再バランスのためのモジュラーフレームワークを提案する。
動作領域のグリッド上の分布としてRL状態とアクション空間を定式化し,フレームワークをスケーラブルにする。
実世界の旅行データとネットワークデータを用いた数値実験は、このアプローチがベースライン法よりもいくつかの異なる利点があることを実証している。
論文 参考訳(メタデータ) (2021-05-27T16:32:28Z) - Model-based Multi-agent Policy Optimization with Adaptive Opponent-wise
Rollouts [52.844741540236285]
マルチエージェント強化学習(MARL)におけるモデルベース手法について検討する。
AORPO(Adaptive Opponent-wise Rollout Policy)と呼ばれる新しい分散型モデルベースのMARL法を提案する。
論文 参考訳(メタデータ) (2021-05-07T16:20:22Z) - Equilibrium Inverse Reinforcement Learning for Ride-hailing Vehicle
Network [1.599072005190786]
疎結合グラフにおける客車マッチングの問題を定式化する。
マルチエージェント環境における平衡ポリシを導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-13T03:18:44Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。