論文の概要: WildOS: Open-Vocabulary Object Search in the Wild
- arxiv url: http://arxiv.org/abs/2602.19308v1
- Date: Sun, 22 Feb 2026 19:14:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.578048
- Title: WildOS: Open-Vocabulary Object Search in the Wild
- Title(参考訳): WildOS: オープン語彙オブジェクト検索
- Authors: Hardik Shah, Erica Tevere, Deegan Atha, Marcel Kaufmann, Shehryar Khattak, Manthan Patel, Marco Hutter, Jonas Frey, Patrick Spieler,
- Abstract要約: この研究は、長距離でオープンなオブジェクト検索のための統一システムWildOSを提示する。
基礎モデルに基づく視覚モジュール ExploRFM を用いて、グラフのフロンティアノードをスコアリングする。
また、オープン語彙ターゲットクエリの粗い局所化のための粒子フィルタに基づく手法も導入する。
- 参考スコア(独自算出の注目度): 12.098091049832965
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Autonomous navigation in complex, unstructured outdoor environments requires robots to operate over long ranges without prior maps and limited depth sensing. In such settings, relying solely on geometric frontiers for exploration is often insufficient. In such settings, the ability to reason semantically about where to go and what is safe to traverse is crucial for robust, efficient exploration. This work presents WildOS, a unified system for long-range, open-vocabulary object search that combines safe geometric exploration with semantic visual reasoning. WildOS builds a sparse navigation graph to maintain spatial memory, while utilizing a foundation-model-based vision module, ExploRFM, to score frontier nodes of the graph. ExploRFM simultaneously predicts traversability, visual frontiers, and object similarity in image space, enabling real-time, onboard semantic navigation tasks. The resulting vision-scored graph enables the robot to explore semantically meaningful directions while ensuring geometric safety. Furthermore, we introduce a particle-filter-based method for coarse localization of the open-vocabulary target query, that estimates candidate goal positions beyond the robot's immediate depth horizon, enabling effective planning toward distant goals. Extensive closed-loop field experiments across diverse off-road and urban terrains demonstrate that WildOS enables robust navigation, significantly outperforming purely geometric and purely vision-based baselines in both efficiency and autonomy. Our results highlight the potential of vision foundation models to drive open-world robotic behaviors that are both semantically informed and geometrically grounded. Project Page: https://leggedrobotics.github.io/wildos/
- Abstract(参考訳): 複雑で非構造的な屋外環境での自律的なナビゲーションは、ロボットが事前の地図や限定的な深度検知なしで長距離で操作する必要がある。
このような環境では、探索のための幾何学的フロンティアのみに頼ることは、しばしば不十分である。
このような環境では、どこへ行くべきか、何が安全なのかを意味論的に推論する能力は、堅牢で効率的な探索に不可欠である。
この研究は、安全な幾何学的探索と意味的な視覚的推論を組み合わせた、長距離でオープンなオブジェクト探索のための統合システムWildOSを提示する。
WildOSは空間記憶を維持するためにスパースナビゲーショングラフを構築し、基盤モデルベースのビジョンモジュールであるExpploRFMを使用してグラフのフロンティアノードをスコアする。
ExploRFMは、画像空間におけるトラバーサビリティ、ビジュアルフロンティア、オブジェクト類似性を同時に予測し、リアルタイム、オンボードのセマンティックナビゲーションタスクを可能にする。
結果として得られる視覚マーク付きグラフにより、ロボットは幾何学的安全性を確保しながら意味論的に意味のある方向を探索することができる。
さらに,ロボットの直近の深度地平線を超えた候補目標位置を推定し,遠隔の目標に向けて効果的な計画立案を可能にする,オープン語彙ターゲットクエリの粗い局所化のための粒子フィルタに基づく手法を提案する。
様々なオフロードおよび都市地形にわたる大規模なクローズドループフィールド実験は、WildOSが堅牢なナビゲーションを可能にし、純粋に幾何学的かつ純粋に視覚に基づくベースラインを効率と自律性の両方で著しく上回っていることを示している。
本研究は,視覚基盤モデルが意味的情報と幾何学的基礎を持つオープンワールドロボット行動を促進する可能性を強調した。
Project Page: https://leggedrobotics.github.io/wildos/
関連論文リスト
- RAVEN: Resilient Aerial Navigation via Open-Set Semantic Memory and Behavior Adaptation [20.730528223747967]
RAVENは、非構造化屋外環境での空中セマンティックナビゲーションのための3Dメモリベースの行動ツリーフレームワークである。
空間的に一貫したセマンティックなボクセル線マップを永続記憶として使用し、長期計画を可能にし、純粋に反応性のある振る舞いを避ける。
RAVENは、シミュレーションのベースラインを85.25%上回り、屋外フィールドテストにおける空中ロボットへの展開を通じて実世界の適用性を実証している。
論文 参考訳(メタデータ) (2025-09-28T01:43:25Z) - Semantic Exploration and Dense Mapping of Complex Environments using Ground Robot with Panoramic LiDAR-Camera Fusion [10.438142938687326]
本稿では,LiDAR-パノラマカメラスイートを備えた地上ロボットを用いて,複雑な未知環境の自律的セマンティック探索と密集的セマンティックターゲットマッピングを行うシステムを提案する。
そこで我々はまず,幾何的カバレッジと意味的視点の両方の観察を完遂するタスクを再定義し,その後,意味的視点と幾何学的視点を別々に管理し,局所的な視点を生成するための新たな優先順位駆動型デカップリング型局所サンプリングを提案する。
さらに,ロボットの安全性を確保しつつ,積極的な探索行動を可能にする安全な攻撃的探索状態マシンを提案する。
論文 参考訳(メタデータ) (2025-05-28T21:27:32Z) - ForesightNav: Learning Scene Imagination for Efficient Exploration [57.49417653636244]
人間の想像力と推論に触発された新しい探索戦略であるForesightNavを提案する。
提案手法は,ロボットエージェントに,未探索領域の占有状況や意味的詳細などの文脈情報を予測する能力を備える。
本研究では,Structured3Dデータセットを用いた想像力に基づくアプローチの有効性を検証し,シーン形状の予測において,正確な占有率予測と優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-22T17:38:38Z) - FrontierNet: Learning Visual Cues to Explore [54.8265603996238]
この研究は、3Dマップからゴールポーズを抽出する制限に対処するため、効率的な自律探索に2Dビジュアルキューを活用することを目的としている。
本稿では、FrontierNetをコアコンポーネントとする、視覚のみのフロンティアベースの探索システムを提案する。
提案手法は,既存の3次元目標抽出手法に代わるもので,早期探索効率の15%向上を実現している。
論文 参考訳(メタデータ) (2025-01-08T16:25:32Z) - IPPON: Common Sense Guided Informative Path Planning for Object Goal Navigation [33.979481250363584]
本稿では,新しい情報経路計画法と3次元オブジェクト確率マッピング手法を提案する。
マッピングモジュールはセマンティックセグメンテーションとベイズフィルタによって関心対象の確率を計算する。
我々のプランナーはゼロショットアプローチに従っているが、2023年のHabitat ObjectNav Challengeにおいて、Path Length(SPL)とSoft SPLが重み付けしたSuccessによって測定された最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-25T17:11:33Z) - BADGR: An Autonomous Self-Supervised Learning-Based Navigation System [158.6392333480079]
BadGRは、エンドツーエンドの学習ベースのモバイルロボットナビゲーションシステムである。
実際の環境で収集された、自己監督型のオフポリシーデータでトレーニングすることができる。
BadGRは、幾何学的に邪魔な障害物を伴って、現実世界の都市やオフロード環境をナビゲートすることができる。
論文 参考訳(メタデータ) (2020-02-13T18:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。