論文の概要: Anticipatory Fleet Repositioning for Shared-use Autonomous Mobility
Services: An Optimization and Learning-Based Approach
- arxiv url: http://arxiv.org/abs/2210.08659v2
- Date: Wed, 12 Apr 2023 20:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 17:25:12.715744
- Title: Anticipatory Fleet Repositioning for Shared-use Autonomous Mobility
Services: An Optimization and Learning-Based Approach
- Title(参考訳): 共有利用自律移動サービスのための予測フリート配置:最適化と学習に基づくアプローチ
- Authors: Monika Filipovska, Michael Hyland, Haimanti Bala
- Abstract要約: 本稿では, アイドル車両の予測再配置によるSAMS車両の効率とサービス品質の向上に焦点をあてる。
提案手法は、将来の需要を予測し、最適化に基づく割当て戦略に協力する再バランス政策を学習する。
実験では、モデルが将来の需要を予測できる能力と、訓練段階で見つからないケースへの転送可能性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The development of mobility-on-demand services, rich transportation data
sources, and autonomous vehicles (AVs) creates significant opportunities for
shared-use AV mobility services (SAMSs) to provide accessible and
demand-responsive personal mobility. SAMS fleet operation involves multiple
interrelated decisions, with a primary focus on efficiently fulfilling
passenger ride requests with a high level of service quality. This paper
focuses on improving the efficiency and service quality of a SAMS vehicle fleet
via anticipatory repositioning of idle vehicles. The rebalancing problem is
formulated as a Markov Decision Process, which we propose solving using an
advantage actor critic (A2C) reinforcement learning-based method. The proposed
approach learns a rebalancing policy that anticipates future demand and
cooperates with an optimization-based assignment strategy. The approach allows
for centralized repositioning decisions and can handle large vehicle fleets
since the problem size does not change with the fleet size. Using New York City
taxi data and an agent-based simulation tool, two versions of the A2C AV
repositioning approach are tested. The first version, A2C-AVR(A), learns to
anticipate future demand based on past observations, while the second,
A2C-AVR(B), uses demand forecasts. The models are compared to an
optimization-based rebalancing approach and show significant reduction in mean
passenger waiting times, with a slightly increased percentage of empty fleet
miles travelled. The experiments demonstrate the model's ability to anticipate
future demand and its transferability to cases unseen at the training stage.
- Abstract(参考訳): モビリティ・オン・デマンドサービス、リッチ・トランスポート・データソース、自動運転車(AV)の開発は、共有用途のAVモビリティサービス(SAMS)において、アクセシブルで需要に反応するパーソナルモビリティを提供する重要な機会を生み出している。
SAMS艦隊の運用には、複数の相互関係の判断が伴い、乗客の乗車要求を高いレベルのサービス品質で効率的に満たすことに重点が置かれている。
本稿では, アイドル車両の予測再配置によるSAMS車両の効率とサービス品質の向上に焦点をあてる。
本手法は,アドバンテージ・アクタ・アタクタ (a2c) 強化学習に基づく手法を用いて解くマルコフ決定過程として定式化されている。
提案手法は,将来の需要を予測し,最適化に基づく割当戦略と協調するリバランス政策を学習する。
このアプローチは中央集権的な配置決定を可能にし、問題のサイズが艦隊のサイズに変化しないため、大きな車両群を扱うことができる。
ニューヨーク市のタクシーデータとエージェントベースのシミュレーションツールを用いて、A2C AV再配置アプローチの2つのバージョンをテストする。
第1バージョンのA2C-AVR(A)は過去の観測に基づいて将来の需要を予測し、第2のA2C-AVR(B)は需要予測を使用する。
これらのモデルは、最適化に基づくリバランスアプローチと比較され、乗客の平均待ち時間が大幅に減少し、空の車両走行距離の割合がわずかに増加した。
実験は、モデルが将来の需要を予測できる能力と、訓練段階では見られないケースへの転送可能性を示す。
関連論文リスト
- Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution [92.84441068115517]
Investigate-Consolidate-Exploit(ICE)は、AIエージェントの適応性と柔軟性を高めるための新しい戦略である。
ICEは、真の自己進化のためのタスク間の知識の伝達を促進する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減する。
論文 参考訳(メタデータ) (2024-01-25T07:47:49Z) - i-Rebalance: Personalized Vehicle Repositioning for Supply Demand Balance [11.720716530010323]
深部強化学習(DRL)を用いた個別車両再配置手法i-Rebalanceを提案する。
i-Re Balanceは、99人のリアルドライバーを含む実地ユーザスタディを通じて、リポジションレコメンデーションを受け入れる際のドライバーの判断を推定する。
実世界の軌道データの評価では、i-リバランスはドライバーの受け入れ率を38.07%、ドライバーの総収入を9.97%改善している。
論文 参考訳(メタデータ) (2024-01-09T08:51:56Z) - ICF-SRSR: Invertible scale-Conditional Function for Self-Supervised
Real-world Single Image Super-Resolution [60.90817228730133]
単一画像超解像(SISR)は、与えられた低解像度(LR)画像を高解像度(HR)にアップサンプリングすることを目的とした課題である。
近年のアプローチは、単純化されたダウンサンプリング演算子によって劣化したシミュレーションLR画像に基づいて訓練されている。
Invertible Scale-Conditional Function (ICF) を提案する。これは入力画像をスケールし、異なるスケール条件で元の入力を復元する。
論文 参考訳(メタデータ) (2023-07-24T12:42:45Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Fleet Rebalancing for Expanding Shared e-Mobility Systems: A Multi-agent
Deep Reinforcement Learning Approach [17.193480676611358]
共有e-mobilityシステムの運用における重要な課題は、フリートリバランシングである。
まず,実世界のe-mobilityシステムから収集したリッチなデータ集合を1年間調査する。
学習した知識により、EV共有の重要な操作詳細を抽象化できる高忠実度シミュレータを設計する。
次に, マルチエージェント強化学習(MARL)問題として, 連続的拡張下での共有e-mobilityシステムの再バランスタスクをモデル化する。
論文 参考訳(メタデータ) (2022-11-11T11:25:30Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - A Modular and Transferable Reinforcement Learning Framework for the
Fleet Rebalancing Problem [2.299872239734834]
モデルフリー強化学習(RL)に基づく艦隊再バランスのためのモジュラーフレームワークを提案する。
動作領域のグリッド上の分布としてRL状態とアクション空間を定式化し,フレームワークをスケーラブルにする。
実世界の旅行データとネットワークデータを用いた数値実験は、このアプローチがベースライン法よりもいくつかの異なる利点があることを実証している。
論文 参考訳(メタデータ) (2021-05-27T16:32:28Z) - Model-based Multi-agent Policy Optimization with Adaptive Opponent-wise
Rollouts [52.844741540236285]
マルチエージェント強化学習(MARL)におけるモデルベース手法について検討する。
AORPO(Adaptive Opponent-wise Rollout Policy)と呼ばれる新しい分散型モデルベースのMARL法を提案する。
論文 参考訳(メタデータ) (2021-05-07T16:20:22Z) - Equilibrium Inverse Reinforcement Learning for Ride-hailing Vehicle
Network [1.599072005190786]
疎結合グラフにおける客車マッチングの問題を定式化する。
マルチエージェント環境における平衡ポリシを導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-13T03:18:44Z) - Learning Vehicle Routing Problems using Policy Optimisation [4.093722933440819]
最先端のアプローチは強化学習を使ってポリシーを学習し、学習ポリシーは擬似解法として機能する。
これらのアプローチは、あるケースでは優れた性能を示しているが、ルーティング問題に典型的な大きな検索空間を考えると、ポリシーの貧弱さに早すぎる可能性がある。
より多くのポリシーを提供することで探索を支援するエントロピー正規化強化学習(ERRL)を提案する。
論文 参考訳(メタデータ) (2020-12-24T14:18:56Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。