論文の概要: To Move or Not to Move: Constraint-based Planning Enables Zero-Shot Generalization for Interactive Navigation
- arxiv url: http://arxiv.org/abs/2602.20055v1
- Date: Mon, 23 Feb 2026 17:10:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.916621
- Title: To Move or Not to Move: Constraint-based Planning Enables Zero-Shot Generalization for Interactive Navigation
- Title(参考訳): 移動すべきか否か: 対話型ナビゲーションのためのゼロショット一般化を可能にする制約ベースのプランニング
- Authors: Apoorva Vashisth, Manav Kulshrestha, Pranav Bakshi, Damon Conover, Guillaume Sartoretti, Aniket Bera,
- Abstract要約: 家庭環境や倉庫のような現実のシナリオでは、クラッタはすべてのルートをブロックすることができる。
本稿では,移動ロボットが乱雑に移動して自身の進路を鍛える,Lifelong Interactive Navigation問題を紹介する。
アクティブな認識を伴うLLM駆動制約に基づく計画フレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.745622942938532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual navigation typically assumes the existence of at least one obstacle-free path between start and goal, which must be discovered/planned by the robot. However, in real-world scenarios, such as home environments and warehouses, clutter can block all routes. Targeted at such cases, we introduce the Lifelong Interactive Navigation problem, where a mobile robot with manipulation abilities can move clutter to forge its own path to complete sequential object- placement tasks - each involving placing an given object (eg. Alarm clock, Pillow) onto a target object (eg. Dining table, Desk, Bed). To address this lifelong setting - where effects of environment changes accumulate and have long-term effects - we propose an LLM-driven, constraint-based planning framework with active perception. Our framework allows the LLM to reason over a structured scene graph of discovered objects and obstacles, deciding which object to move, where to place it, and where to look next to discover task-relevant information. This coupling of reasoning and active perception allows the agent to explore the regions expected to contribute to task completion rather than exhaustively mapping the environment. A standard motion planner then executes the corresponding navigate-pick-place, or detour sequence, ensuring reliable low-level control. Evaluated in physics-enabled ProcTHOR-10k simulator, our approach outperforms non-learning and learning-based baselines. We further demonstrate our approach qualitatively on real-world hardware.
- Abstract(参考訳): 視覚ナビゲーションは通常、スタートとゴールの間に少なくとも1つの障害物のない経路が存在すると仮定する。
しかし、家庭環境や倉庫のような現実世界のシナリオでは、あらゆるルートを遮断することができる。
このような場合に,操作能力を有する移動ロボットが,対象物(例えばアラームクロック,ピロー)を対象物(ダイニングテーブル,デスク,ベッドなど)に配置することを含む,連続的な物体配置タスクを完了するために,自身の進路を狭くすることができる,というライフロング・インタラクティブ・ナビゲーション問題を導入する。
環境変化の影響が蓄積され、長期的影響が生じるこの長期的環境に対処するため、我々は、アクティブな知覚を伴うLLM駆動の制約ベースの計画フレームワークを提案する。
我々のフレームワークは、LLMが発見したオブジェクトと障害物の構造化されたシーングラフを解析し、どのオブジェクトを移動すべきか、どこに配置するか、次にタスク関連情報を見つける場所を決定することを可能にする。
この推論とアクティブな知覚の結合により、エージェントは環境を徹底的にマッピングするのではなく、タスク完了に寄与すると思われる領域を探索することができる。
標準モーションプランナーは、対応するナビゲーションピックプレース(detour sequence)を実行し、信頼性の高い低レベル制御を保証する。
物理対応のProcTHOR-10kシミュレータにおいて,本手法は非学習ベースラインや学習ベースラインよりも優れている。
さらに、実際のハードウェア上で定性的にアプローチを実証する。
関連論文リスト
- ActLoc: Learning to Localize on the Move via Active Viewpoint Selection [52.909507162638526]
ActLocは、一般的なロボットナビゲーションタスクのローカライズ精度を高めるためのアクティブな視点対応計画フレームワークである。
ActLocの中核となるのは、視点選択のために、大規模に訓練された注意ベースのモデルである。
ActLocは、単一視点選択における最先端の結果を達成し、完全な軌道計画に効果的に一般化する。
論文 参考訳(メタデータ) (2025-08-28T16:36:02Z) - Adaptive Interactive Navigation of Quadruped Robots using Large Language Models [14.14967096139099]
大規模言語モデル(LLM)を用いたタスク計画のための原始木を提案する。
動作計画のための多目的移動と相互作用行動を含む総合的なスキルライブラリを事前学習するために強化学習を採用する。
ツリー構造に統合されたリプランニングメカニズムにより、便利なノードの追加とプルーニングが可能になる。
論文 参考訳(メタデータ) (2025-03-29T02:17:52Z) - Navigating Motion Agents in Dynamic and Cluttered Environments through LLM Reasoning [69.5875073447454]
本稿では,大規模言語モデル(LLM)によって強化された動作エージェントを,動的・乱雑な環境における自律的なナビゲーションに向けて前進させる。
トレーニング不要なフレームワークは、マルチエージェント調整、クローズドループ計画、動的障害物回避を、リトレーニングや微調整なしでサポートしています。
論文 参考訳(メタデータ) (2025-03-10T13:39:09Z) - IN-Sight: Interactive Navigation through Sight [20.184155117341497]
IN-Sightは自己監督型パスプランニングの新しいアプローチである。
可逆性のスコアを計算し、セマンティックマップに組み込む。
障害物を正確に回避するために、IN-Sightはローカルプランナーを使用している。
論文 参考訳(メタデータ) (2024-08-01T07:27:54Z) - TAS: A Transit-Aware Strategy for Embodied Navigation with Non-Stationary Targets [55.09248760290918]
非定常目標を持つ動的シナリオにおけるナビゲーションのための新しいアルゴリズムを提案する。
我々の新しいTAS(Transit-Aware Strategy)は、具体化されたナビゲーションポリシーをオブジェクトパス情報で強化する。
TASは、ターゲットルートとルートを同期させるエージェントを報酬することで、非定常環境での性能を改善する。
論文 参考訳(メタデータ) (2024-03-14T22:33:22Z) - A Contextual Bandit Approach for Learning to Plan in Environments with
Probabilistic Goal Configurations [20.15854546504947]
本研究では,静的なオブジェクトだけでなく可動なオブジェクトに対しても,屋内環境を効率的に探索できるオブジェクトナビのためのモジュラーフレームワークを提案する。
我々は,不確実性に直面した場合の楽観性を示すことにより,環境を効率的に探索する。
提案アルゴリズムを2つのシミュレーション環境と実世界の環境で評価し,高いサンプル効率と信頼性を示す。
論文 参考訳(メタデータ) (2022-11-29T15:48:54Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - MPTP: Motion-Planning-aware Task Planning for Navigation in Belief Space [1.3535770763481902]
大規模環境におけるナビゲーションのための統合型タスク・モーション・プランニング・フレームワークを提案する。
このフレームワークは、動作中の運動計画と感覚の不確かさを意図している。
論文 参考訳(メタデータ) (2021-04-10T06:52:16Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。