論文の概要: RVN-Bench: A Benchmark for Reactive Visual Navigation
- arxiv url: http://arxiv.org/abs/2603.03953v1
- Date: Wed, 04 Mar 2026 11:26:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.279979
- Title: RVN-Bench: A Benchmark for Reactive Visual Navigation
- Title(参考訳): RVN-Bench: リアクティブなビジュアルナビゲーションのためのベンチマーク
- Authors: Jaewon Lee, Jaeseok Heo, Gunmin Lee, Howoong Jun, Jeongwoo Oh, Songhwai Oh,
- Abstract要約: RVN-Benchは屋内移動ロボットのための衝突認識ベンチマークである。
大規模で多様な屋内環境を提供し、衝突対応ナビゲーションタスクと評価メトリクスを定義し、標準化されたトレーニングとベンチマークのためのツールを提供する。
- 参考スコア(独自算出の注目度): 17.9734937468287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safe visual navigation is critical for indoor mobile robots operating in cluttered environments. Existing benchmarks, however, often neglect collisions or are designed for outdoor scenarios, making them unsuitable for indoor visual navigation. To address this limitation, we introduce the reactive visual navigation benchmark (RVN-Bench), a collision-aware benchmark for indoor mobile robots. In RVN-Bench, an agent must reach sequential goal positions in previously unseen environments using only visual observations and no prior map, while avoiding collisions. Built on the Habitat 2.0 simulator and leveraging high-fidelity HM3D scenes, RVN-Bench provides large-scale, diverse indoor environments, defines a collision-aware navigation task and evaluation metrics, and offers tools for standardized training and benchmarking. RVN-Bench supports both online and offline learning by offering an environment for online reinforcement learning, a trajectory image dataset generator, and tools for producing negative trajectory image datasets that capture collision events. Experiments show that policies trained on RVN-Bench generalize effectively to unseen environments, demonstrating its value as a standardized benchmark for safe and robust visual navigation. Code and additional materials are available at: https://rvn-bench.github.io/.
- Abstract(参考訳): 安全な視覚ナビゲーションは、乱雑な環境で動作している屋内移動ロボットにとって重要である。
しかし、既存のベンチマークはしばしば衝突を無視したり、屋外のシナリオのために設計されているため、屋内の視覚ナビゲーションには適さない。
この制限に対処するために、屋内移動ロボットの衝突認識ベンチマークであるリアクティブビジュアルナビゲーションベンチマーク(RVN-Bench)を導入する。
RVN-Benchでは、エージェントは衝突を避けながら、視覚的な観察と事前マップを使わずに、これまで見えなかった環境において、逐次的な目標位置に到達する必要がある。
Habitat 2.0シミュレータ上に構築され、高忠実なHM3Dシーンを活用するRVN-Benchは、大規模で多様な屋内環境を提供し、衝突対応ナビゲーションタスクと評価メトリクスを定義し、標準化されたトレーニングとベンチマークのためのツールを提供する。
RVN-Benchは、オンライン強化学習環境、軌道画像データセット生成装置、衝突イベントをキャプチャする負の軌道画像データセットを生成するツールを提供することで、オンラインとオフラインの両方の学習をサポートする。
RVN-Benchでトレーニングされたポリシーは、安全で堅牢なビジュアルナビゲーションのための標準ベンチマークとしての価値を実証し、目に見えない環境に効果的に一般化することを示した。
コードと追加資料は、https://rvn-bench.github.io/.com/で入手できる。
関連論文リスト
- VLN-Zero: Rapid Exploration and Cache-Enabled Neurosymbolic Vision-Language Planning for Zero-Shot Transfer in Robot Navigation [52.00474922315126]
未確認環境のための視覚言語ナビゲーションフレームワークであるVLN-Zeroを提案する。
我々は視覚言語モデルを用いて、記号的なシーングラフを効率的に構築し、ゼロショットのニューロシンボリックナビゲーションを可能にする。
VLN-Zeroは、最先端のゼロショットモデルと比べて2倍の成功率を獲得し、最も微調整されたベースラインを上回り、半分の時間でゴール地点に達する。
論文 参考訳(メタデータ) (2025-09-23T03:23:03Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - CARE: Enhancing Safety of Visual Navigation through Collision Avoidance via Repulsive Estimation [6.216878556851609]
本稿では,学習に基づく視覚ナビゲーション手法の堅牢性を向上させるため,CARE(Collision Avoidance via Repulsive Estimation)を提案する。
CAREは、ローカルなロボット軌道を生成するRGBベースのナビゲーションモデルにシームレスに統合することができる。
我々は、様々なロボットプラットフォームにまたがる最先端のビジュアルナビゲーションモデルと統合することで、CAREを評価する。
論文 参考訳(メタデータ) (2025-06-04T11:02:15Z) - SEMNAV: A Semantic Segmentation-Driven Approach to Visual Semantic Navigation [1.2582887633807602]
ビジュアルセマンティックナビゲーション(VSN)はロボット工学における基本的な問題であり、エージェントは未知の環境で対象物に向かって移動しなければならない。
ほとんどの最先端のVSNモデルは、実世界のレンダリングシーンが使用されるシミュレーション環境で訓練されている。
本研究では,環境の視覚的入力表現としてセマンティックセグメンテーションを活用する新しい手法であるSEMNAVを提案する。
論文 参考訳(メタデータ) (2025-06-02T08:19:41Z) - UnitedVLN: Generalizable Gaussian Splatting for Continuous Vision-Language Navigation [71.97405667493477]
我々は,UnitedVLNと呼ばれる,新しい汎用3DGSベースの事前学習パラダイムを導入する。
エージェントは、高忠実度360度ビジュアルイメージとセマンティック特徴を統一してレンダリングすることで、将来の環境をよりよく探索することができる。
UnitedVLNは既存のVLN-CEベンチマークで最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-11-25T02:44:59Z) - NeuPAN: Direct Point Robot Navigation with End-to-End Model-based Learning [67.53972459080437]
乱雑で未知の環境で非ホロノミックロボットをナビゲートするには、リアルタイム衝突回避のための正確な認識と正確な動きが必要である。
本稿では, リアルタイム, 高精度, 地図のない, 展開が容易で, 環境によらないロボットモーションプランナであるNeuPANについて述べる。
論文 参考訳(メタデータ) (2024-03-11T15:44:38Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - Image-based Navigation in Real-World Environments via Multiple Mid-level
Representations: Fusion Models, Benchmark and Efficient Evaluation [13.207579081178716]
近年の学習に基づくナビゲーション手法では,エージェントのシーン理解とナビゲーション能力が同時に実現されている。
残念ながら、シミュレーターがナビゲーションポリシーを訓練する効率的なツールであるとしても、現実の世界に移動すると、結果のモデルは失敗することが多い。
可能な解決策の1つは、シーンの重要なドメイン不変性を含む中間レベルの視覚表現を備えたナビゲーションモデルを提供することである。
論文 参考訳(メタデータ) (2022-02-02T15:00:44Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - Diagnosing the Environment Bias in Vision-and-Language Navigation [102.02103792590076]
VLN(Vision-and-Language Navigation)は、エージェントが自然言語の指示に従い、与えられた環境を探索し、所望の目標地点に到達する必要がある。
VLNを研究する最近の研究は、目に見えない環境でのテストでは、顕著なパフォーマンス低下を観察しており、ニューラルエージェントモデルがトレーニング環境に非常に偏っていることを示している。
本研究では, この環境バイアスの原因を探るため, 環境再分割と機能置換による新しい診断実験を設計する。
論文 参考訳(メタデータ) (2020-05-06T19:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。