論文の概要: LLM-MCoX: Large Language Model-based Multi-robot Coordinated Exploration and Search
- arxiv url: http://arxiv.org/abs/2509.26324v1
- Date: Tue, 30 Sep 2025 14:33:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.166646
- Title: LLM-MCoX: Large Language Model-based Multi-robot Coordinated Exploration and Search
- Title(参考訳): LLM-MCoX:大規模言語モデルに基づくマルチロボットの探索と探索
- Authors: Ruiyang Wang, Haolun Tsu, David Hunt, Shaocheng Luo, Jiwoo Kim, Miroslav Pajic,
- Abstract要約: LLM-MCoX (LLM-based Multi-robot Coordinated Exploration and Search)を導入した。
提案手法は,フロンティアクラスタ抽出とドアウェイ検出のためのリアルタイムLiDARスキャン処理とマルチモーダルLPM推論を組み合わせたものである。
LLMは自然言語に基づくオブジェクト検索を可能にするので、人間のオペレーターは高いレベルのセマンティックガイダンスを提供することができる。
- 参考スコア(独自算出の注目度): 10.560717861162972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous exploration and object search in unknown indoor environments remain challenging for multi-robot systems (MRS). Traditional approaches often rely on greedy frontier assignment strategies with limited inter-robot coordination. In this work, we introduce LLM-MCoX (LLM-based Multi-robot Coordinated Exploration and Search), a novel framework that leverages Large Language Models (LLMs) for intelligent coordination of both homogeneous and heterogeneous robot teams tasked with efficient exploration and target object search. Our approach combines real-time LiDAR scan processing for frontier cluster extraction and doorway detection with multimodal LLM reasoning (e.g., GPT-4o) to generate coordinated waypoint assignments based on shared environment maps and robot states. LLM-MCoX demonstrates superior performance compared to existing methods, including greedy and Voronoi-based planners, achieving 22.7% faster exploration times and 50% improved search efficiency in large environments with 6 robots. Notably, LLM-MCoX enables natural language-based object search capabilities, allowing human operators to provide high-level semantic guidance that traditional algorithms cannot interpret.
- Abstract(参考訳): 未知の屋内環境における自律的な探索と物体探索は、マルチロボットシステム(MRS)にとって依然として困難である。
伝統的なアプローチは、ロボット間の調整が限定された欲求的なフロンティア割り当て戦略にしばしば依存する。
本研究では,LLM-MCoX (LLM-based Multi-robot Coordinated Exploration and Search, LLM-MCoX)を紹介する。
提案手法は,フロンティアクラスタ抽出とドアウェイ検出のためのリアルタイムLiDARスキャン処理とマルチモーダルLCM推論(例: GPT-4o)を組み合わせることで,共有環境マップとロボット状態に基づいて協調的なウェイポイント割り当てを生成する。
LLM-MCoXは、グリーディやヴォロノワをベースとしたプランナーを含む既存の手法と比較して、22.7%高速な探索時間を実現し、6つのロボットを搭載した大規模環境での探索効率を50%改善した。
特に、LLM-MCoXは自然言語ベースのオブジェクト検索を可能にするため、従来のアルゴリズムでは解釈できないような高度なセマンティックガイダンスを提供することができる。
関連論文リスト
- MLE-STAR: Machine Learning Engineering Agent via Search and Targeted Refinement [72.760041766681]
我々は機械学習エージェントを構築するための新しいアプローチであるMLE-STARを提案する。
MLE-STARは、まず、検索エンジンを使用してWebから効果的なモデルを取得することにより、外部知識を活用する。
MLE-STARにより提案される効果的な戦略を用いた新しいアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2025-05-27T18:11:25Z) - Deploying Foundation Model-Enabled Air and Ground Robots in the Field: Challenges and Opportunities [65.98704516122228]
基礎モデル(FM)をロボット工学に統合することで、ロボットは自然言語を理解し、環境のセマンティクスを推論できるようになった。
本稿では,FM対応ロボットを現場に展開する上で,大規模で非構造的な環境下でのロボットの運用に必要なミッションについて述べる。
数kmのミッションを持つ非構造環境下での大規模LLM対応ロボット計画の実証実験を行った。
論文 参考訳(メタデータ) (2025-05-14T15:28:43Z) - MLLM-Search: A Zero-Shot Approach to Finding People using Multimodal Large Language Models [5.28115111932163]
移動ロボットのための新しいゼロショット人探索アーキテクチャであるMLLM-Searchを提案する。
本研究では,環境の空間的理解をロボットに提供するための視覚的プロンプト手法を提案する。
建物の複数部屋のフロアで移動ロボットを実験したところ、MLLM-Searchは、新しい見えない環境の人を見つけるために一般化できることが判明した。
論文 参考訳(メタデータ) (2024-11-27T21:59:29Z) - MALMM: Multi-Agent Large Language Models for Zero-Shot Robotics Manipulation [62.854649499866774]
大規模言語モデル(LLM)は、ロボティクスの操作やナビゲーションなど、さまざまな領域にまたがる優れた計画能力を示している。
特殊なLLMエージェント間で高レベル計画および低レベル制御コード生成を分散する新しいマルチエージェントLLMフレームワークを提案する。
長軸タスクを含む9つのRLBenchタスクに対するアプローチを評価し、ゼロショット環境でロボット操作を解く能力を実証した。
論文 参考訳(メタデータ) (2024-11-26T17:53:44Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - From Simulations to Reality: Enhancing Multi-Robot Exploration for Urban
Search and Rescue [46.377510400989536]
本研究では,コミュニケーションが限られ,位置情報がない未知の環境での効率的なマルチロボット探索のための新しいハイブリッドアルゴリズムを提案する。
連続した目標情報なしでシナリオに合うように、ローカルなベストとグローバルなベストポジションを再定義する。
提示された研究は、限られた情報と通信能力を持つシナリオにおけるマルチロボット探索の強化を約束している。
論文 参考訳(メタデータ) (2023-11-28T17:05:25Z) - Co-NavGPT: Multi-Robot Cooperative Visual Semantic Navigation Using Vision Language Models [8.668211481067457]
Co-NavGPTは、ビジョン言語モデル(VLM)をグローバルプランナーとして統合する新しいフレームワークである。
Co-NavGPTは、多様な視点を持つ複数のロボットのサブマップを統一されたグローバルマップに集約する。
VLMはこの情報を使って、ロボット全体のフロンティアを割り当て、協調的で効率的な探索を容易にする。
論文 参考訳(メタデータ) (2023-10-11T23:17:43Z) - Intrinsic Language-Guided Exploration for Complex Long-Horizon Robotic
Manipulation Tasks [12.27904219271791]
現在の強化学習アルゴリズムは、スパースで複雑な環境で苦労している。
Intrinsically Guided Exploration from Large Language Models (IGE-LLMs) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-28T11:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。