論文の概要: Enhancing PIBT via Multi-Action Operations
- arxiv url: http://arxiv.org/abs/2511.09193v2
- Date: Fri, 14 Nov 2025 01:29:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 13:23:30.726962
- Title: Enhancing PIBT via Multi-Action Operations
- Title(参考訳): マルチアクション操作によるPIBTの強化
- Authors: Egor Yukhnevich, Anton Andreychuk,
- Abstract要約: マルチアクション操作を組み込んだPIBTの拡張版を提案する。
本手法は,オンラインLMAPF-T設定における最先端性能を実現する方法を示す。
- 参考スコア(独自算出の注目度): 4.68905836571978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: PIBT is a rule-based Multi-Agent Path Finding (MAPF) solver, widely used as a low-level planner or action sampler in many state-of-the-art approaches. Its primary advantage lies in its exceptional speed, enabling action selection for thousands of agents within milliseconds by considering only the immediate next timestep. However, this short-horizon design leads to poor performance in scenarios where agents have orientation and must perform time-consuming rotation actions. In this work, we present an enhanced version of PIBT that addresses this limitation by incorporating multi-action operations. We detail the modifications introduced to improve PIBT's performance while preserving its hallmark efficiency. Furthermore, we demonstrate how our method, when combined with graph-guidance technique and large neighborhood search optimization, achieves state-of-the-art performance in the online LMAPF-T setting.
- Abstract(参考訳): PIBTはMAPF(Multi-Agent Path Finding)解決法であり、多くの最先端アプローチで低レベルプランナーやアクションサンプリングとして広く使われている。
その主な利点は例外的な速度であり、次の瞬間のみを考慮することでミリ秒以内の何千ものエージェントのアクション選択を可能にする。
しかし、この短期水平設計は、エージェントが向きを持ち、時間を要する回転動作を行わなければならないシナリオでは性能が低下する。
本稿では,マルチアクション操作を取り入れたPIBTの拡張版を提案する。
本稿では,PIBTの性能向上のために導入された改良点について述べる。
さらに,本手法とグラフ誘導手法と大規模近傍探索最適化を組み合わせることで,オンラインLMAPF-T設定における最先端性能を実現する方法を示す。
関連論文リスト
- Lightweight and Effective Preference Construction in PIBT for Large-Scale Multi-Agent Pathfinding [10.174848090916669]
本稿では,PIBTにおけるタイブレーキングの簡易かつ効果的な2つの手法について検討する。
最初のテクニックでは、エージェントが他のエージェントをインテリジェントにドッジし、各アクションが次のステップの進行を妨げるかどうかを考慮に入れます。
第2のテクニックは、複数のPIBT実行を通じて、アクションが他人に後悔を引き起こす方法を学び、この情報を使って、後悔を最小化することである。
論文 参考訳(メタデータ) (2025-05-19T02:12:29Z) - M$^2$PT: Multimodal Prompt Tuning for Zero-shot Instruction Learning [90.75075886543404]
MLLM(Multimodal Large Language Models)は、幅広い領域にわたる顕著なパフォーマンスを示す。
本研究では,MLLMの効率的な命令チューニングのための新しいMultimodal Prompt Tuning (M$2$PT) 手法を提案する。
論文 参考訳(メタデータ) (2024-09-24T01:40:24Z) - Speeding Up Multi-Objective Hyperparameter Optimization by Task
Similarity-Based Meta-Learning for the Tree-Structured Parzen Estimator [37.553558410770314]
本稿では,タスク間のトップドメインの重複によって定義されるタスク類似性を用いて,TPEの取得機能をメタラーニング設定に拡張する。
実験では,表付きHPOベンチマークでMO-TPEを高速化し,最先端の性能が得られることを示した。
論文 参考訳(メタデータ) (2022-12-13T17:33:02Z) - Generative Planning for Temporally Coordinated Exploration in
Reinforcement Learning [29.811723497181486]
ジェネレーティブプランニング法(GPM)は、現在のステップだけでなく、将来のステップでもアクションを生成することができる。
GPMは、その生成した多段階計画を利用して、高価値領域への時間的協調探索を行うことができる。
論文 参考訳(メタデータ) (2022-01-24T15:53:32Z) - Learning Space Partitions for Path Planning [54.475949279050596]
PlaLaMは2次元ナビゲーションタスクにおける既存の経路計画手法よりも優れており、特に難解な局所最適化の存在下では優れている。
これらは高マルチモーダルな実世界のタスクに移行し、コンパイラフェーズでは最大245%、分子設計では最大0.4の強いベースラインを0-1スケールで上回ります。
論文 参考訳(メタデータ) (2021-06-19T18:06:11Z) - The Surprising Effectiveness of MAPPO in Cooperative, Multi-Agent Games [67.47961797770249]
マルチエージェントPPO(MAPPO)は、集中型値関数を採用するマルチエージェントPPOバリアントである。
MAPPOは,3つの一般的なマルチエージェントテストベッドにおいて,最先端技術に匹敵する性能を実現していることを示す。
論文 参考訳(メタデータ) (2021-03-02T18:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。