論文の概要: Application of LLMs to Multi-Robot Path Planning and Task Allocation
- arxiv url: http://arxiv.org/abs/2507.07302v1
- Date: Wed, 09 Jul 2025 22:01:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.216169
- Title: Application of LLMs to Multi-Robot Path Planning and Task Allocation
- Title(参考訳): LLMのマルチロボット経路計画とタスク割当への応用
- Authors: Ashish Kumar,
- Abstract要約: 本研究では,複数のエージェントを対象とした計画ベースタスクの効率的な探索のためのエキスパートプランナーとしての大規模モデルの適用について検討する。
より具体的には、複数のエージェントを対象とした計画ベースタスクの効率的な探索のためのエキスパートプランナーとしての大規模モデルの適用について検討する。
- 参考スコア(独自算出の注目度): 8.734807802892657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient exploration is a well known problem in deep reinforcement learning and this problem is exacerbated in multi-agent reinforcement learning due the intrinsic complexities of such algorithms. There are several approaches to efficiently explore an environment to learn to solve tasks by multi-agent operating in that environment, of which, the idea of expert exploration is investigated in this work. More specifically, this work investigates the application of large-language models as expert planners for efficient exploration in planning based tasks for multiple agents.
- Abstract(参考訳): 効率的な探索は深層強化学習においてよく知られた問題であり、そのようなアルゴリズムの本質的な複雑さにより、多エージェント強化学習においてこの問題が悪化している。
本研究では,その環境下でのマルチエージェント操作により,課題解決の学習環境を効率的に探索する手法がいくつか提案されている。
より具体的には、複数のエージェントを対象とした計画ベースタスクの効率的な探索のためのエキスパートプランナーとしての大規模モデルの適用について検討する。
関連論文リスト
- Sample Efficient Myopic Exploration Through Multitask Reinforcement
Learning with Diverse Tasks [53.44714413181162]
本稿では, エージェントが十分に多様なタスクセットで訓練された場合, 筋電図探索設計による一般的なポリシー共有アルゴリズムは, サンプル効率がよいことを示す。
我々の知る限りでは、これはMTRLの「探索的利益」の初めての理論的実証である。
論文 参考訳(メタデータ) (2024-03-03T22:57:44Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Learning Complex Teamwork Tasks Using a Given Sub-task Decomposition [11.998708550268978]
本稿では,タスクをよりシンプルなマルチエージェントサブタスクに分解する手法を提案する。
各サブタスクでは、チーム全体のサブセットが、サブタスク固有のポリシを取得するようにトレーニングされる。
サブチームはマージされ、ターゲットタスクに転送される。そこでは、そのポリシーは、より複雑なターゲットタスクを解決するために、まとめて微調整される。
論文 参考訳(メタデータ) (2023-02-09T21:24:56Z) - Cooperative Exploration for Multi-Agent Deep Reinforcement Learning [127.4746863307944]
深層強化学習のための協調型マルチエージェント探索(CMAE)を提案する。
ゴールは正規化エントロピーに基づく手法により、複数の射影状態空間から選択される。
CMAEが様々なタスクのベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2021-07-23T20:06:32Z) - Flexible and Efficient Long-Range Planning Through Curious Exploration [13.260508939271764]
The Curious Sample Planner can realize temporallyextended plan for a wide range of really 3D task。
対照的に、標準的な計画と学習の方法は、多くの場合、これらのタスクを全く解決しなかったり、膨大な数のトレーニングサンプルでのみ実行できなかったりします。
論文 参考訳(メタデータ) (2020-04-22T21:47:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。