論文の概要: FrontierNet: Learning Visual Cues to Explore
- arxiv url: http://arxiv.org/abs/2501.04597v1
- Date: Wed, 08 Jan 2025 16:25:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:55:10.950360
- Title: FrontierNet: Learning Visual Cues to Explore
- Title(参考訳): FrontierNet: ビジュアルクイズを学習して探究
- Authors: Boyang Sun, Hanzhi Chen, Stefan Leutenegger, Cesar Cadena, Marc Pollefeys, Hermann Blum,
- Abstract要約: この研究は、3Dマップからゴールポーズを抽出する制限に対処するため、効率的な自律探索に2Dビジュアルキューを活用することを目的としている。
本研究では,FrontierNetをコアコンポーネントとする画像のみのフロンティア探索システムを提案する。
提案手法は既存の3次元探査システムに代わるもので,早期探査効率が16%向上した。
- 参考スコア(独自算出の注目度): 54.8265603996238
- License:
- Abstract: Exploration of unknown environments is crucial for autonomous robots; it allows them to actively reason and decide on what new data to acquire for tasks such as mapping, object discovery, and environmental assessment. Existing methods, such as frontier-based methods, rely heavily on 3D map operations, which are limited by map quality and often overlook valuable context from visual cues. This work aims at leveraging 2D visual cues for efficient autonomous exploration, addressing the limitations of extracting goal poses from a 3D map. We propose a image-only frontier-based exploration system, with FrontierNet as a core component developed in this work. FrontierNet is a learning-based model that (i) detects frontiers, and (ii) predicts their information gain, from posed RGB images enhanced by monocular depth priors. Our approach provides an alternative to existing 3D-dependent exploration systems, achieving a 16% improvement in early-stage exploration efficiency, as validated through extensive simulations and real-world experiments.
- Abstract(参考訳): 未知の環境の探索は自律ロボットにとって不可欠であり、マッピングやオブジェクト発見、環境評価といったタスクのために、どのような新しいデータを取得すべきかを積極的に推論し、決定することができる。
フロンティアベースの手法のような既存の手法は、地図の品質によって制限される3Dマップ操作に大きく依存しており、しばしば視覚的な手がかりから貴重なコンテキストを見落としている。
この研究は、3Dマップからゴールポーズを抽出する制限に対処するため、効率的な自律探索に2Dビジュアルキューを活用することを目的としている。
本研究では,FrontierNetをコアコンポーネントとする画像のみのフロンティア探索システムを提案する。
FrontierNetは学習ベースのモデル
(i)フロンティアを検出し、
(II) 単眼深度で強調したRGB画像から情報ゲインを予測する。
提案手法は既存の3次元探査システムに代わるもので,広範囲なシミュレーションや実世界の実験によって検証された早期探査効率を16%向上させる。
関連論文リスト
- Finding Waldo: Towards Efficient Exploration of NeRF Scene Spaces [4.944459754818577]
我々は,NeRFモデル入力の効率的な発見として,シーン探索フレームワークを提案し,正式に定義する。
シーン探索に対処するアプローチの欠如を解決するため,まず誘導ランダム探索 (GRS) と詩補間探索 (PIBS) という2つのベースライン手法を提案する。
そこで我々は,シーン探索を最適化問題としてキャストし,探索のための基準に依存しない進化誘導ポッドサーチ(EGPS)を提案する。
論文 参考訳(メタデータ) (2024-03-07T14:08:01Z) - Reinforcement Learning with Frontier-Based Exploration via Autonomous
Environment [0.0]
この研究は、ExploreORBとして知られる既存のVisual-Graph SLAMと強化学習を組み合わせたものである。
提案アルゴリズムは、フロンティアの探索プロセスを最適化し、より正確な地図を作成することにより、ExploreORBの効率と精度を向上させることを目的としている。
論文 参考訳(メタデータ) (2023-07-14T12:19:46Z) - Language-Guided 3D Object Detection in Point Cloud for Autonomous
Driving [91.91552963872596]
我々は,LiDARグラウンディングと呼ばれるマルチモーダルな視覚的グラウンドニングタスクを提案する。
言語特徴を持つLiDARベースの物体検出器を共同で学習し、検出器から直接対象領域を予測する。
私たちの研究は、LiDARベースの接地作業に関する深い洞察を提供しており、自動運転コミュニティにとって有望な方向性を示すものと期待しています。
論文 参考訳(メタデータ) (2023-05-25T06:22:10Z) - Learning-Augmented Model-Based Planning for Visual Exploration [8.870188183999854]
学習型モデルベースプランニングを用いた新しい探索手法を提案する。
室内シーンの視覚センシングとセマンティックマッピングの進歩が活用される。
提案手法は,2.1%,RLに基づく探査手法8.4%を網羅的に上回っている。
論文 参考訳(メタデータ) (2022-11-15T04:53:35Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - PillarGrid: Deep Learning-based Cooperative Perception for 3D Object
Detection from Onboard-Roadside LiDAR [15.195933965761645]
我々は,複数の3次元LiDARからの情報を融合した新しい協調認識手法であるtextitPillarGridを提案する。
PillarGrid は,1) 点雲の協調前処理,2) 軸方向のボキセル化と特徴抽出,3) 複数のセンサからの特徴のグリッド方向の深層融合,4) 畳み込みニューラルネットワーク(CNN) に基づく3Dオブジェクト検出である。
広汎な実験により、PillarGridはSOTA単一LiDARに基づく3Dオブジェクト検出法よりも精度と範囲を大きなマージンで上回ることがわかった。
論文 参考訳(メタデータ) (2022-03-12T02:28:41Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。