論文の概要: Air-Ground Collaboration for Language-Specified Missions in Unknown Environments
- arxiv url: http://arxiv.org/abs/2505.09108v1
- Date: Wed, 14 May 2025 03:33:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.36212
- Title: Air-Ground Collaboration for Language-Specified Missions in Unknown Environments
- Title(参考訳): 未知環境における言語特定ミッションのための空域協調
- Authors: Fernando Cladera, Zachary Ravichandran, Jason Hughes, Varun Murali, Carlos Nieto-Granda, M. Ani Hsieh, George J. Pappas, Camillo J. Taylor, Vijay Kumar,
- Abstract要約: 本稿では,無人航空機 (UAV) と無人地上機 (UGV) が,自然言語で指定されたミッションを協調的に達成できる,第一種システムを提案する。
我々は、Large Language Model(LLM)対応プランナーを利用して、オンライン上に構築され、航空ロボットと地上ロボットの間で機会的に共有されるセマンティック・メトリック・マップを推論する。
- 参考スコア(独自算出の注目度): 62.56917065429864
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As autonomous robotic systems become increasingly mature, users will want to specify missions at the level of intent rather than in low-level detail. Language is an expressive and intuitive medium for such mission specification. However, realizing language-guided robotic teams requires overcoming significant technical hurdles. Interpreting and realizing language-specified missions requires advanced semantic reasoning. Successful heterogeneous robots must effectively coordinate actions and share information across varying viewpoints. Additionally, communication between robots is typically intermittent, necessitating robust strategies that leverage communication opportunities to maintain coordination and achieve mission objectives. In this work, we present a first-of-its-kind system where an unmanned aerial vehicle (UAV) and an unmanned ground vehicle (UGV) are able to collaboratively accomplish missions specified in natural language while reacting to changes in specification on the fly. We leverage a Large Language Model (LLM)-enabled planner to reason over semantic-metric maps that are built online and opportunistically shared between an aerial and a ground robot. We consider task-driven navigation in urban and rural areas. Our system must infer mission-relevant semantics and actively acquire information via semantic mapping. In both ground and air-ground teaming experiments, we demonstrate our system on seven different natural-language specifications at up to kilometer-scale navigation.
- Abstract(参考訳): 自律型ロボットシステムが成熟するにつれて、ユーザーは低レベルの詳細ではなく、目的のレベルでミッションを指定したいだろう。
言語はそのようなミッション仕様の表現的で直感的な媒体である。
しかし、言語を指導するロボットチームを実現するには、重大な技術的ハードルを克服する必要がある。
言語固有のミッションの解釈と実現には、高度な意味推論が必要である。
成功した異種ロボットは、アクションを効果的に調整し、さまざまな視点で情報を共有する必要がある。
さらに、ロボット間のコミュニケーションは通常断続的であり、コミュニケーションの機会を活用して協調し、ミッション目標を達成するための堅牢な戦略を必要とする。
本研究では,無人航空機 (UAV) と無人地上機 (UGV) が, 飛行中の仕様変更に反応しながら, 自然言語で指定されたミッションを協調的に達成できる, 第一種システムを提案する。
我々は、Large Language Model(LLM)対応プランナーを利用して、オンライン上に構築され、航空ロボットと地上ロボットの間で機会的に共有されるセマンティック・メトリック・マップを推論する。
都市部と農村部におけるタスク駆動ナビゲーションについて考察する。
本システムでは,ミッション関連セマンティクスを推測し,セマンティクスマッピングを用いて積極的に情報を取得する必要がある。
地上実験と地上実験の両方において、我々は7つの異なる自然言語仕様を最大1kmの航法で実証した。
関連論文リスト
- Deploying Foundation Model-Enabled Air and Ground Robots in the Field: Challenges and Opportunities [65.98704516122228]
基礎モデル(FM)をロボット工学に統合することで、ロボットは自然言語を理解し、環境のセマンティクスを推論できるようになった。
本稿では,FM対応ロボットを現場に展開する上で,大規模で非構造的な環境下でのロボットの運用に必要なミッションについて述べる。
数kmのミッションを持つ非構造環境下での大規模LLM対応ロボット計画の実証実験を行った。
論文 参考訳(メタデータ) (2025-05-14T15:28:43Z) - SPINE: Online Semantic Planning for Missions with Incomplete Natural Language Specifications in Unstructured Environments [27.485636944766718]
大規模言語モデル(LLM)は、様々なロボットタスクに対して強力な文脈推論能力を示している。
SPINEは、自然言語で提供される不完全なミッション仕様を持つミッションのためのオンラインプランナーである。
意味論的推論と探索の複数のステップを必要とするミッションを用いてシミュレーションおよび実世界の設定においてSPINEを評価する。
論文 参考訳(メタデータ) (2024-10-03T22:41:47Z) - Navigation with Large Language Models: Semantic Guesswork as a Heuristic
for Planning [73.0990339667978]
不慣れな環境でのナビゲーションは、ロボットにとって大きな課題となる。
言語モデルを用いて、新しい現実世界環境のバイアス探索を行う。
実環境におけるLFGの評価とシミュレーションベンチマークを行った。
論文 参考訳(メタデータ) (2023-10-16T06:21:06Z) - LM-Nav: Robotic Navigation with Large Pre-Trained Models of Language,
Vision, and Action [76.71101507291473]
本稿では,無注釈の大規模軌跡データに対するトレーニングの恩恵を享受するロボットナビゲーションシステムLM-Navを提案する。
本研究では,ナビゲーション(ViNG),画像言語アソシエーション(CLIP),言語モデリング(GPT-3)の事前学習モデルから構築可能なシステムについて述べる。
論文 参考訳(メタデータ) (2022-07-10T10:41:50Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Language Understanding for Field and Service Robots in a Priori Unknown
Environments [29.16936249846063]
本稿では,フィールドロボットとサービスロボットによる自然言語命令の解釈と実行を可能にする,新しい学習フレームワークを提案する。
自然言語の発話において、空間的、位相的、意味的な情報を暗黙的に推測する。
本研究では,この分布を確率論的言語基底モデルに組み込んで,ロボットの行動空間のシンボル表現上の分布を推定する。
論文 参考訳(メタデータ) (2021-05-21T15:13:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。