論文の概要: Multi-Agent Reinforcement Learning for Dynamic Mobility Resource Allocation with Hierarchical Adaptive Grouping
- arxiv url: http://arxiv.org/abs/2507.20377v2
- Date: Tue, 29 Jul 2025 22:17:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 11:57:45.836799
- Title: Multi-Agent Reinforcement Learning for Dynamic Mobility Resource Allocation with Hierarchical Adaptive Grouping
- Title(参考訳): 階層的適応型グループ化による動的移動資源配分のためのマルチエージェント強化学習
- Authors: Farshid Nooshi, Suining He,
- Abstract要約: 動的モビリティ資源割り当てのための階層適応型グループ共有(HAG-PS)と呼ばれる新しいマルチエージェント強化学習を提案する。
HAG-PSは、移動資源配分のためのマルチエージェント強化学習に関する2つの重要な研究課題に対処することを目的としている。
実世界のニューヨークにおける自転車シェアリングデータに基づく広範な実験を行い,他のベースライン手法と比較してHAG-PSの優れた性能を実証した。
- 参考スコア(独自算出の注目度): 2.167718390410225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Allocating mobility resources (e.g., shared bikes/e-scooters, ride-sharing vehicles) is crucial for rebalancing the mobility demand and supply in the urban environments. We propose in this work a novel multi-agent reinforcement learning named Hierarchical Adaptive Grouping-based Parameter Sharing (HAG-PS) for dynamic mobility resource allocation. HAG-PS aims to address two important research challenges regarding multi-agent reinforcement learning for mobility resource allocation: (1) how to dynamically and adaptively share the mobility resource allocation policy (i.e., how to distribute mobility resources) across agents (i.e., representing the regional coordinators of mobility resources); and (2) how to achieve memory-efficient parameter sharing in an urban-scale setting. To address the above challenges, we have provided following novel designs within HAG-PS. To enable dynamic and adaptive parameter sharing, we have designed a hierarchical approach that consists of global and local information of the mobility resource states (e.g., distribution of mobility resources). We have developed an adaptive agent grouping approach in order to split or merge the groups of agents based on their relative closeness of encoded trajectories (i.e., states, actions, and rewards). We have designed a learnable identity (ID) embeddings to enable agent specialization beyond simple parameter copy. We have performed extensive experimental studies based on real-world NYC bike sharing data (a total of more than 1.2 million trips), and demonstrated the superior performance (e.g., improved bike availability) of HAG-PS compared with other baseline approaches.
- Abstract(参考訳): モビリティリソース(例えば、共有自転車/電動スクーター、ライドシェアリング車両)の割り当ては、都市環境におけるモビリティの需要と供給を再バランスするために不可欠である。
本研究では,動的モビリティ資源割り当てのための階層適応型グループ型パラメータ共有(HAG-PS)という,新しいマルチエージェント強化学習を提案する。
HAG-PSは,移動資源割当のためのマルチエージェント強化学習に関する2つの重要な研究課題に対処することを目的としている。(1)移動資源割当政策(すなわち,移動資源割当政策)をエージェント間で動的かつ適応的に共有する方法(すなわち,移動資源の地域コーディネータを表す方法)と,(2)都市規模でメモリ効率の高いパラメータ共有を実現する方法である。
以上の課題に対処するため,HAG-PS の新規設計について述べる。
動的かつ適応的なパラメータ共有を実現するため,移動資源状態(移動資源の分布など)のグローバルおよびローカルな情報からなる階層的手法を考案した。
我々は, 符号化された軌道(状態, 行動, 報酬)の相対的近接性に基づいて, エージェントのグループを分割またはマージするために, 適応的なエージェントグループ化手法を開発した。
我々は、単純なパラメータコピーを超えてエージェントの特殊化を可能にするための学習可能なID(ID)埋め込みを設計した。
実世界のニューヨークにおける自転車シェアリングデータ(合計120万回以上)に基づく広範な実験を行い,HAG-PSの性能向上(例えば,自転車利用率の向上)を他のベースライン手法と比較して実証した。
関連論文リスト
- Mobile-R1: Towards Interactive Reinforcement Learning for VLM-Based Mobile Agent via Task-Level Rewards [29.467847768352282]
対話型マルチターン強化学習とタスクレベルの報酬をモバイルエージェントに提供するMobile-R1を紹介する。
トレーニングフレームワークは,初期形式微調整,アクションレベル報酬によるワンステップオンライントレーニング,マルチターン軌道に基づくタスクレベル報酬によるオンライントレーニングの3段階で構成されている。
この戦略はMobile-R1の探索と誤り訂正機能を強化するために設計されており、大幅な性能向上につながっている。
論文 参考訳(メタデータ) (2025-06-25T11:34:43Z) - Exploring the Roles of Large Language Models in Reshaping Transportation Systems: A Survey, Framework, and Roadmap [51.198001060683296]
大型言語モデル(LLM)は、輸送上の課題に対処するための変革的な可能性を提供する。
LLM4TRは,交通におけるLSMの役割を体系的に分類する概念的枠組みである。
それぞれの役割について,交通予測や自律運転,安全分析,都市移動最適化など,さまざまな応用について検討した。
論文 参考訳(メタデータ) (2025-03-27T11:56:27Z) - A Multi-Agent DRL-Based Framework for Optimal Resource Allocation and Twin Migration in the Multi-Tier Vehicular Metaverse [30.745598330516167]
多層車両メタバースは、車両を相互接続されたデジタルエコシステム内の必須ノードに変えることを約束する。
階層的なStackelbergゲームベースのインセンティブ機構であるGraph Convolutional Networks(GCNs)とマルチエージェント深層強化学習(MADRL)を統合した,新たなマルチ層リソースアロケーションとVTマイグレーションフレームワークを導入する。
この動的で多層的な車種メタバースをマルコフ決定過程(MDP)としてモデル化することにより、多目的多元決定性ポリシー勾配(MO-MADDPG)と呼ばれるMADRLベースのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2025-02-26T10:09:05Z) - Hierarchical Multi-Agent DRL Based Dynamic Cluster Reconfiguration for UAV Mobility Management [46.80160709931929]
マルチコネクション性には、分散アクセスポイント(AP)間の動的クラスタ形成と、これらのAPからのリソース割り当ての調整が含まれる。
本研究では,エネルギー効率のよい動的クラスタ再構成を用いた無人航空機(UAV)の移動性管理手法を提案する。
論文 参考訳(メタデータ) (2024-12-05T19:20:42Z) - The Synergy Between Optimal Transport Theory and Multi-Agent
Reinforcement Learning [53.88428902493129]
本稿では、最適輸送理論とマルチエージェント強化学習(MARL)の統合について検討する。
OTがMARLに影響を与える5つの重要な領域がある。
本稿では,OTとMARLの相乗効果がスケーラビリティ問題にどのように対処できるかを述べる。
論文 参考訳(メタデータ) (2024-01-18T19:34:46Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Multi-Agent Transfer Learning in Reinforcement Learning-Based
Ride-Sharing Systems [3.7311680121118345]
強化学習(Reinforcement Learning, RL)は、実世界の様々なシミュレーションタスクで使われている。
本稿では,固定ソースとターゲットロールを用いたTL転送パラメータの影響について検討する。
論文 参考訳(メタデータ) (2021-12-01T11:23:40Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。