論文の概要: Where to Explore Next? ExHistCNN for History-aware Autonomous 3D
Exploration
- arxiv url: http://arxiv.org/abs/2011.14669v1
- Date: Mon, 30 Nov 2020 10:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:36:39.668211
- Title: Where to Explore Next? ExHistCNN for History-aware Autonomous 3D
Exploration
- Title(参考訳): 次はどこを探検しますか。
ExHistCNNによる3次元自律探査
- Authors: Yiming Wang and Alessio Del Bue
- Abstract要約: 深度カメラを用いた未知の屋内環境の自律的3次元探査の課題に対処する。
我々は、未知領域のカバレッジを最大化するNext Best View (NBV) の評価として、この問題を論じる。
本稿では,現在の3次元観測(深度フレーム)と現在進行中の再建の歴史をエンコードする,学習に基づく新しいメトリクスを提案する。
- 参考スコア(独自算出の注目度): 39.376150974078364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we address the problem of autonomous 3D exploration of an
unknown indoor environment using a depth camera. We cast the problem as the
estimation of the Next Best View (NBV) that maximises the coverage of the
unknown area. We do this by re-formulating NBV estimation as a classification
problem and we propose a novel learning-based metric that encodes both, the
current 3D observation (a depth frame) and the history of the ongoing
reconstruction. One of the major contributions of this work is about
introducing a new representation for the 3D reconstruction history as an
auxiliary utility map which is efficiently coupled with the current depth
observation. With both pieces of information, we train a light-weight CNN,
named ExHistCNN, that estimates the NBV as a set of directions towards which
the depth sensor finds most unexplored areas. We perform extensive evaluation
on both synthetic and real room scans demonstrating that the proposed ExHistCNN
is able to approach the exploration performance of an oracle using the complete
knowledge of the 3D environment.
- Abstract(参考訳): 本研究では,奥行きカメラを用いた未知の室内環境の自律的3次元探索の問題に対処する。
我々はこの問題を,未知領域のカバレッジを最大化するnext best view (nbv) の推定として位置づけた。
我々は,NBV推定を分類問題として再定式化し,現在の3次元観察(深度フレーム)と現在進行中の再建の歴史の両方をエンコードする新しい学習基準を提案する。
この研究の主な貢献の1つは、現在の深度観測と効率的に結合した補助ユーティリティマップとして、3次元再構築履歴の新しい表現を導入することである。
両情報を用いて、我々は、深度センサが最も探索されていない領域を見つける方向のセットとしてNBVを推定する、ExHistCNNという軽量CNNを訓練する。
提案するExHistCNNは,3次元環境の完全知識を用いて,オラクルの探索性能にアプローチ可能であることを示す。
関連論文リスト
- OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - BEVDepth: Acquisition of Reliable Depth for Multi-view 3D Object
Detection [13.319949358652192]
我々は,カメラを用いたBird-Eye-View 3Dオブジェクト検出のための,BEVDepthと呼ばれる信頼性の高い深度推定が可能な新しい3Dオブジェクト検出器を提案する。
BEVDepthは、挑戦的なnuScenesテストセット上で、最先端の60.0% NDSを達成する。
論文 参考訳(メタデータ) (2022-06-21T03:21:18Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - Self-Supervised Depth Completion for Active Stereo [55.79929735390945]
アクティブステレオシステムは、低コストで高品質な深度マップのため、ロボット産業で広く利用されている。
これらの深度センサーはステレオアーチファクトに悩まされており、密度の深い深度推定を提供していない。
本稿では, 高精度な深度マップを推定するアクティブステレオシステムのための, 自己監督型深度補完法を提案する。
論文 参考訳(メタデータ) (2021-10-07T07:33:52Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - On the role of depth predictions for 3D human pose estimation [0.04199844472131921]
推定深度値とともに2dジョイント位置を入力とし、3d位置をカメラ座標で予測するシステムを構築します。
結果は低次元の入力を受け入れ、リアルタイムシステムに統合されるニューラルネットワークで生成されます。
本システムは市販の2dポーズ検出器と深度マップ予測器と組み合わせて野生での3dポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2021-03-03T16:51:38Z) - Next-best-view Regression using a 3D Convolutional Neural Network [0.9449650062296823]
本論文では,次のベストビュー問題に対するデータ駆動アプローチを提案する。
提案手法は、次のベストビューのbtxtpositionを抑えるために、以前の再構成で3D畳み込みニューラルネットワークを訓練する。
提案手法を2つの実験グループを用いて検証した。
論文 参考訳(メタデータ) (2021-01-23T01:50:26Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - GeoConv: Geodesic Guided Convolution for Facial Action Unit Recognition [43.22337514214676]
AU認識のための新しい測地ガイド型畳み込み(GeoConv)を提案する。
我々はさらに、AU認識のためのGeoCNNというエンドツーエンドのトレーニング可能なフレームワークを開発した。
論文 参考訳(メタデータ) (2020-03-06T07:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。