論文の概要: Neural Algorithmic Reasoners informed Large Language Model for Multi-Agent Path Finding
- arxiv url: http://arxiv.org/abs/2508.17971v1
- Date: Mon, 25 Aug 2025 12:38:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.776986
- Title: Neural Algorithmic Reasoners informed Large Language Model for Multi-Agent Path Finding
- Title(参考訳): ニューラルネットワーク共振器を用いた多元経路探索のための大規模言語モデル
- Authors: Pu Feng, Size Wang, Yuhong Cao, Junkang Liang, Rongye Shi, Wenjun Wu,
- Abstract要約: 本稿では,ニューラルアルゴリズム推論(NAR)を利用してMAPFにLLMを通知する新しいフレームワーク LLM-NAR を提案する。
MAPFの地図情報とGNNを統合するために、ニューラルネットワーク推論を用いた最初の研究である。
本手法はMAPF問題の解法において,既存のLLM法よりも優れていた。
- 参考スコア(独自算出の注目度): 8.017961986229976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development and application of large language models (LLM) have demonstrated that foundational models can be utilized to solve a wide array of tasks. However, their performance in multi-agent path finding (MAPF) tasks has been less than satisfactory, with only a few studies exploring this area. MAPF is a complex problem requiring both planning and multi-agent coordination. To improve the performance of LLM in MAPF tasks, we propose a novel framework, LLM-NAR, which leverages neural algorithmic reasoners (NAR) to inform LLM for MAPF. LLM-NAR consists of three key components: an LLM for MAPF, a pre-trained graph neural network-based NAR, and a cross-attention mechanism. This is the first work to propose using a neural algorithmic reasoner to integrate GNNs with the map information for MAPF, thereby guiding LLM to achieve superior performance. LLM-NAR can be easily adapted to various LLM models. Both simulation and real-world experiments demonstrate that our method significantly outperforms existing LLM-based approaches in solving MAPF problems.
- Abstract(参考訳): 大規模言語モデル(LLM)の開発と応用は,幅広いタスクを解くために基礎モデルを利用することを実証している。
しかし、MAPF(Multi-agent Path Finding, マルチエージェントパス探索)タスクにおけるそれらの性能は、この領域を探索する研究はごくわずかである。
MAPFは、計画とマルチエージェントの調整の両方を必要とする複雑な問題である。
MAPFタスクにおけるLLMの性能向上のために,ニューラルアルゴリズム推論(NAR)を利用してMAPFにLLMを通知する新しいフレームワーク LLM-NAR を提案する。
LLM-NARは、MAPF用のLLM、トレーニング済みグラフニューラルネットワークベースのNAR、クロスアテンションメカニズムの3つの重要なコンポーネントから構成される。
これは、GNNをMAPFのマップ情報と統合するためのニューラルネットワーク推論を用いた最初の研究であり、LLMを優れた性能を達成するための導出である。
LLM-NAR は様々な LLM モデルに容易に適応できる。
シミュレーションと実世界の実験の両方で,本手法はMAPF問題の解法において,既存のLLM法よりも大幅に優れていることが示された。
関連論文リスト
- OR-LLM-Agent: Automating Modeling and Solving of Operations Research Optimization Problems with Reasoning LLM [15.260794368585692]
自動オペレーションリサーチ問題解決のためのLLMを推論するAIエージェントフレームワークであるOR-LLM-Agentを提案する。
GPT-o3, Gemini 2.5 Pro, DeepSeek-R1, ORLMなどの高度な手法よりも, OR-LLM-Agentの精度を7%以上向上させることを示す。
論文 参考訳(メタデータ) (2025-03-13T03:40:50Z) - LLMDR: LLM-Driven Deadlock Detection and Resolution in Multi-Agent Pathfinding [6.895637499163198]
LLMDR (LLM-Driven Deadlock Detection and Resolution) はデッドロックの解決と学習MAPFモデルの性能向上を目的とした手法である。
LLMDRは、大規模言語モデルの推論機能と学習済みMAPFモデルと優先順位付け計画を統合し、デッドロックを検出し、カスタマイズされた解決戦略を提供する。
以上の結果から,LLMDRは学習済みMAPFモデル,特にデッドロック発生シナリオの性能を向上し,成功率も顕著に向上した。
論文 参考訳(メタデータ) (2025-03-02T03:49:15Z) - LLaVA-KD: A Framework of Distilling Multimodal Large Language Models [72.68665884790002]
本稿では,l-MLLMからs-MLLMへ知識を伝達する新しいフレームワークを提案する。
本稿では,教師モデルの頑健な表現を視覚的,言語的両面で伝達するために,MDist(Multimodal Distillation)を導入する。
また,提案した蒸留戦略の可能性をフル活用するための3段階学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-21T17:41:28Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - On the Design and Analysis of LLM-Based Algorithms [74.7126776018275]
大規模言語モデル(LLM)はアルゴリズムのサブルーチンとして使用される。
LLMは素晴らしい経験的成功を収めた。
提案フレームワークは,LLMアルゴリズムの進歩を約束する。
論文 参考訳(メタデータ) (2024-07-20T07:39:07Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - NetLLM: Adapting Large Language Models for Networking [36.61572542761661]
我々は,ネットワーク問題を解決するために低努力でLLMの強力な能力を活用するためのコヒーレントな設計を提供する最初のフレームワークであるNetLLMを紹介する。
具体的には、NetLLMはLLMにネットワーク上のマルチモーダルデータを効果的に処理し、タスク固有の回答を効率的に生成する権限を与える。
論文 参考訳(メタデータ) (2024-02-04T04:21:34Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - u-LLaVA: Unifying Multi-Modal Tasks via Large Language Model [17.3535277338312]
u-LLaVAは、MLLMの知覚能力を改善するためにピクセル、地域、グローバル機能を統合する革新的な統合マルチタスクフレームワークである。
この研究は、277Kサンプルからなるマスクベースの新しいマルチタスクデータセットに貢献し、MLLMの微粒化知覚能力に挑戦し評価する。
論文 参考訳(メタデータ) (2023-11-09T13:18:27Z) - Enabling Intelligent Interactions between an Agent and an LLM: A Reinforcement Learning Approach [31.6589518077397]
大規模言語モデル(LLM)は、大量のテキストデータセットから得られた膨大な量の世界の知識を符号化する。
LLMは、高レベルな命令を提供することで、複雑なシーケンシャルな意思決定タスクを解決するための実施エージェントを支援することができる。
本研究では,高レベルの命令に対してLLMを問合せする必要がある場合に学習する強化学習ベースのアプローチである When2Ask を提案する。
論文 参考訳(メタデータ) (2023-06-06T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。