論文の概要: LLM-MCoX: Large Language Model-based Multi-robot Coordinated Exploration and Search
- arxiv url: http://arxiv.org/abs/2509.26324v2
- Date: Sat, 04 Oct 2025 22:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 12:09:05.134808
- Title: LLM-MCoX: Large Language Model-based Multi-robot Coordinated Exploration and Search
- Title(参考訳): LLM-MCoX:大規模言語モデルに基づくマルチロボットの探索と探索
- Authors: Ruiyang Wang, Hao-Lun Hsu, David Hunt, Shaocheng Luo, Jiwoo Kim, Miroslav Pajic,
- Abstract要約: LLM-MCoX (LLM-based Multi-robot Coordinated Exploration and Search)を導入した。
提案手法は,フロンティアクラスタ抽出とドアウェイ検出のためのリアルタイムLiDARスキャン処理とマルチモーダルLPM推論を組み合わせたものである。
LLMは自然言語に基づくオブジェクト検索を可能にするので、人間のオペレーターは高いレベルのセマンティックガイダンスを提供することができる。
- 参考スコア(独自算出の注目度): 13.039064446429407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous exploration and object search in unknown indoor environments remain challenging for multi-robot systems (MRS). Traditional approaches often rely on greedy frontier assignment strategies with limited inter-robot coordination. In this work, we introduce LLM-MCoX (LLM-based Multi-robot Coordinated Exploration and Search), a novel framework that leverages Large Language Models (LLMs) for intelligent coordination of both homogeneous and heterogeneous robot teams tasked with efficient exploration and target object search. Our approach combines real-time LiDAR scan processing for frontier cluster extraction and doorway detection with multimodal LLM reasoning (e.g., GPT-4o) to generate coordinated waypoint assignments based on shared environment maps and robot states. LLM-MCoX demonstrates superior performance compared to existing methods, including greedy and Voronoi-based planners, achieving 22.7% faster exploration times and 50% improved search efficiency in large environments with 6 robots. Notably, LLM-MCoX enables natural language-based object search capabilities, allowing human operators to provide high-level semantic guidance that traditional algorithms cannot interpret.
- Abstract(参考訳): 未知の屋内環境における自律的な探索と物体探索は、マルチロボットシステム(MRS)にとって依然として困難である。
伝統的なアプローチは、ロボット間の調整が限定された欲求的なフロンティア割り当て戦略にしばしば依存する。
本研究では,LLM-MCoX (LLM-based Multi-robot Coordinated Exploration and Search, LLM-MCoX)を紹介する。
提案手法は,フロンティアクラスタ抽出とドアウェイ検出のためのリアルタイムLiDARスキャン処理とマルチモーダルLCM推論(例: GPT-4o)を組み合わせることで,共有環境マップとロボット状態に基づいて協調的なウェイポイント割り当てを生成する。
LLM-MCoXは、グリーディやヴォロノワをベースとしたプランナーを含む既存の手法と比較して、22.7%高速な探索時間を実現し、6つのロボットを搭載した大規模環境での探索効率を50%改善した。
特に、LLM-MCoXは自然言語ベースのオブジェクト検索を可能にするため、従来のアルゴリズムでは解釈できないような高度なセマンティックガイダンスを提供することができる。
関連論文リスト
- SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - Heterogeneous Robot Collaboration in Unstructured Environments with Grounded Generative Intelligence [54.91177026001217]
大規模言語モデル(LLM)対応のチーム化手法は、よく構造化された既知の環境を前提とするのが一般的である。
異種ロボットチームにおけるLCMの推論能力を基盤として,これらの制約に対処するフレームワークであるSPINE-HTを提案する。
我々のフレームワークは、従来のLLM対応の不均一なチームリング手法と比較して、ほぼ2倍の成功率を達成する。
論文 参考訳(メタデータ) (2025-10-30T18:24:38Z) - Hierarchical Language Models for Semantic Navigation and Manipulation in an Aerial-Ground Robotic System [8.88014241557266]
不均一なマルチロボットシステムは、協調的なハイブリッド協調を必要とする複雑なタスクにおいて大きな可能性を示す。
静的またはタスク固有のモデルに依存する既存のメソッドは、様々なタスクや動的環境にまたがる一般化性に欠けることが多い。
本稿では,大規模言語モデル (LLM) と微調整型視覚言語モデル (VLM) を統合した階層型マルチモーダルフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-05T13:27:41Z) - MLE-STAR: Machine Learning Engineering Agent via Search and Targeted Refinement [72.760041766681]
我々は機械学習エージェントを構築するための新しいアプローチであるMLE-STARを提案する。
MLE-STARは、まず、検索エンジンを使用してWebから効果的なモデルを取得することにより、外部知識を活用する。
MLE-STARにより提案される効果的な戦略を用いた新しいアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2025-05-27T18:11:25Z) - Deploying Foundation Model-Enabled Air and Ground Robots in the Field: Challenges and Opportunities [65.98704516122228]
基礎モデル(FM)をロボット工学に統合することで、ロボットは自然言語を理解し、環境のセマンティクスを推論できるようになった。
本稿では,FM対応ロボットを現場に展開する上で,大規模で非構造的な環境下でのロボットの運用に必要なミッションについて述べる。
数kmのミッションを持つ非構造環境下での大規模LLM対応ロボット計画の実証実験を行った。
論文 参考訳(メタデータ) (2025-05-14T15:28:43Z) - MLLM-Search: A Zero-Shot Approach to Finding People using Multimodal Large Language Models [5.28115111932163]
移動ロボットのための新しいゼロショット人探索アーキテクチャであるMLLM-Searchを提案する。
本研究では,環境の空間的理解をロボットに提供するための視覚的プロンプト手法を提案する。
建物の複数部屋のフロアで移動ロボットを実験したところ、MLLM-Searchは、新しい見えない環境の人を見つけるために一般化できることが判明した。
論文 参考訳(メタデータ) (2024-11-27T21:59:29Z) - MALMM: Multi-Agent Large Language Models for Zero-Shot Robotics Manipulation [62.854649499866774]
大規模言語モデル(LLM)は、ロボティクスの操作やナビゲーションなど、さまざまな領域にまたがる優れた計画能力を示している。
特殊なLLMエージェント間で高レベル計画および低レベル制御コード生成を分散する新しいマルチエージェントLLMフレームワークを提案する。
長軸タスクを含む9つのRLBenchタスクに対するアプローチを評価し、ゼロショット環境でロボット操作を解く能力を実証した。
論文 参考訳(メタデータ) (2024-11-26T17:53:44Z) - Large Language Models for Orchestrating Bimanual Robots [19.60907949776435]
本稿では,Language-based Bimanual Orchestration (LABOR)を提案する。
NICOLヒューマノイドロボットを用いた2種類の長距離作業のシミュレーション実験により,本手法の評価を行った。
論文 参考訳(メタデータ) (2024-04-02T15:08:35Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - From Simulations to Reality: Enhancing Multi-Robot Exploration for Urban
Search and Rescue [46.377510400989536]
本研究では,コミュニケーションが限られ,位置情報がない未知の環境での効率的なマルチロボット探索のための新しいハイブリッドアルゴリズムを提案する。
連続した目標情報なしでシナリオに合うように、ローカルなベストとグローバルなベストポジションを再定義する。
提示された研究は、限られた情報と通信能力を持つシナリオにおけるマルチロボット探索の強化を約束している。
論文 参考訳(メタデータ) (2023-11-28T17:05:25Z) - Co-NavGPT: Multi-Robot Cooperative Visual Semantic Navigation Using Vision Language Models [8.668211481067457]
Co-NavGPTは、ビジョン言語モデル(VLM)をグローバルプランナーとして統合する新しいフレームワークである。
Co-NavGPTは、多様な視点を持つ複数のロボットのサブマップを統一されたグローバルマップに集約する。
VLMはこの情報を使って、ロボット全体のフロンティアを割り当て、協調的で効率的な探索を容易にする。
論文 参考訳(メタデータ) (2023-10-11T23:17:43Z) - Intrinsic Language-Guided Exploration for Complex Long-Horizon Robotic
Manipulation Tasks [12.27904219271791]
現在の強化学習アルゴリズムは、スパースで複雑な環境で苦労している。
Intrinsically Guided Exploration from Large Language Models (IGE-LLMs) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-28T11:14:52Z) - Language to Rewards for Robotic Skill Synthesis [37.21434094015743]
我々は,大規模言語モデル(LLM)を利用して,様々なロボットタスクを最適化し,達成可能な報酬パラメータを定義する新しいパラダイムを提案する。
LLMが生成する中間インタフェースとして報酬を用いることで、ハイレベルな言語命令と修正のギャップを、低レベルなロボット動作に効果的に埋めることができる。
論文 参考訳(メタデータ) (2023-06-14T17:27:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。