論文の概要: PC2P: Multi-Agent Path Finding via Personalized-Enhanced Communication and Crowd Perception
- arxiv url: http://arxiv.org/abs/2601.03301v1
- Date: Tue, 06 Jan 2026 03:11:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:22.972859
- Title: PC2P: Multi-Agent Path Finding via Personalized-Enhanced Communication and Crowd Perception
- Title(参考訳): PC2P:パーソナライズされたコミュニケーションと集団認識によるマルチエージェントパス発見
- Authors: Guotao Li, Shaoyun Xu, Yuexing Hao, Yang Wang, Yuhui Sun,
- Abstract要約: PC2Pは、QラーニングベースのMARLフレームワークから派生した、新しい分散MAPF手法である。
動的グラフトポロジに基づくパーソナライズされたコミュニケーション機構を提案する。
致命的なデッドロック問題を解決するために,我々は地域ベースのデッドロック破滅戦略を提案する。
- 参考スコア(独自算出の注目度): 12.114711272142031
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distributed Multi-Agent Path Finding (MAPF) integrated with Multi-Agent Reinforcement Learning (MARL) has emerged as a prominent research focus, enabling real-time cooperative decision-making in partially observable environments through inter-agent communication. However, due to insufficient collaborative and perceptual capabilities, existing methods are inadequate for scaling across diverse environmental conditions. To address these challenges, we propose PC2P, a novel distributed MAPF method derived from a Q-learning-based MARL framework. Initially, we introduce a personalized-enhanced communication mechanism based on dynamic graph topology, which ascertains the core aspects of ``who" and ``what" in interactive process through three-stage operations: selection, generation, and aggregation. Concurrently, we incorporate local crowd perception to enrich agents' heuristic observation, thereby strengthening the model's guidance for effective actions via the integration of static spatial constraints and dynamic occupancy changes. To resolve extreme deadlock issues, we propose a region-based deadlock-breaking strategy that leverages expert guidance to implement efficient coordination within confined areas. Experimental results demonstrate that PC2P achieves superior performance compared to state-of-the-art distributed MAPF methods in varied environments. Ablation studies further confirm the effectiveness of each module for overall performance.
- Abstract(参考訳): MARL(Multi-Agent Reinforcement Learning)と統合されたMAPF(Distributed Multi-Agent Path Finding)が注目されている。
しかし、協調的・知覚的能力の不足により、既存の手法は多様な環境条件にまたがるスケーリングには不十分である。
これらの課題に対処するため,Qラーニングに基づくMARLフレームワークから派生した分散MAPF手法であるPC2Pを提案する。
まず、動的グラフトポロジに基づくパーソナライズされたコミュニケーション機構を導入し、3段階の操作(選択、生成、集約)を通して対話的なプロセスにおける `who" と `what" の中核的な側面を確かめる。
同時に,局所的な群集知覚をエージェントのヒューリスティックな観察に取り入れることで,静的な空間的制約とダイナミックな占有変化の統合を通じて,モデルによる効果的な行動指導を強化する。
極端にデッドロックの問題を解決するために,専門家の指導を生かした地域ベースのデッドロック破滅戦略を提案する。
実験により,PC2Pは各種環境における最先端の分散MAPF法に比べて優れた性能を示した。
アブレーション研究は、各モジュールの全体的な性能に対する有効性をさらに確認する。
関連論文リスト
- Grounded Test-Time Adaptation for LLM Agents [75.62784644919803]
大規模言語モデル(LLM)ベースのエージェントは、新規で複雑な環境への一般化に苦慮している。
環境特化情報を活用することで, LLMエージェントを適応するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-11-06T22:24:35Z) - Offline Multi-agent Reinforcement Learning via Score Decomposition [51.23590397383217]
オフライン協調型マルチエージェント強化学習(MARL)は、分散シフトによる固有の課題に直面している。
この作業は、オフラインとオンラインのMARL間の分散ギャップを明示的に解決する最初の作業である。
論文 参考訳(メタデータ) (2025-05-09T11:42:31Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Ensembling Prioritized Hybrid Policies for Multi-agent Pathfinding [18.06081009550052]
MARL(Multi-Agent Reinforcement Learning)をベースとしたMAPF(Multi-Agent Path Finding)が最近注目されている。
いくつかのMARL-MAPFメソッドは、あるエージェントが知覚できる情報を豊かにするためにコミュニケーションを使用する。
優先度付きハイブリッドポリシ(EPH)を組み込む新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-12T11:47:12Z) - The Gradient Convergence Bound of Federated Multi-Agent Reinforcement
Learning with Efficient Communication [20.891460617583302]
連立学習パラダイムにおける協調的意思決定のための独立強化学習(IRL)の検討
FLはエージェントとリモート中央サーバ間の過剰な通信オーバーヘッドを生成する。
本稿では,システムの実用性向上のための2つの高度な最適化手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T07:21:43Z) - FACMAC: Factored Multi-Agent Centralised Policy Gradients [103.30380537282517]
FACtored Multi-Agent Centralized Policy gradients (FACMAC)を提案する。
離散的および連続的な行動空間における協調的マルチエージェント強化学習のための新しい手法である。
我々は,マルチエージェント粒子環境の変動に対するFACMAC,新しいマルチエージェント MuJoCo ベンチマーク,およびStarCraft II マイクロマネジメントタスクの挑戦的セットについて評価した。
論文 参考訳(メタデータ) (2020-03-14T21:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。