論文の概要: Next-Best View Policy for 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2008.12664v2
- Date: Sun, 6 Sep 2020 15:30:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 02:13:37.794248
- Title: Next-Best View Policy for 3D Reconstruction
- Title(参考訳): 次世代の3次元再構築政策
- Authors: Daryl Peralta, Joel Casimiro, Aldrin Michael Nilles, Justine Aletta
Aguilar, Rowel Atienza and Rhandley Cajote
- Abstract要約: 我々は,Next-Best View(NBV)ポリシーを学習するためのScan-RLという学習アルゴリズムを提案する。
実験では、Scan-RLを用いて、基準の円形経路と比較して、歩数が少なく、距離も短い家屋をスキャンできることがわかった。
- 参考スコア(独自算出の注目度): 13.244237238270893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manually selecting viewpoints or using commonly available flight planners
like circular path for large-scale 3D reconstruction using drones often results
in incomplete 3D models. Recent works have relied on hand-engineered heuristics
such as information gain to select the Next-Best Views. In this work, we
present a learning-based algorithm called Scan-RL to learn a Next-Best View
(NBV) Policy. To train and evaluate the agent, we created Houses3K, a dataset
of 3D house models. Our experiments show that using Scan-RL, the agent can scan
houses with fewer number of steps and a shorter distance compared to our
baseline circular path. Experimental results also demonstrate that a single NBV
policy can be used to scan multiple houses including those that were not seen
during training. The link to Scan-RL is available at
https://github.com/darylperalta/ScanRL and Houses3K dataset can be found at
https://github.com/darylperalta/Houses3K.
- Abstract(参考訳): 手動で視点を選択したり、ドローンを使った大規模な3d再構築のために円形経路のような一般的な飛行プランナーを使うと、しばしば不完全な3dモデルになる。
最近の研究は、次のベストビューを選択するための情報ゲインのような手作業によるヒューリスティックに頼っている。
本研究では,Next-Best View(NBV)ポリシーを学習するためのScan-RLという学習アルゴリズムを提案する。
エージェントをトレーニングし、評価するために、3DハウスモデルのデータセットであるHouses3Kを作成しました。
実験の結果,Scan-RLを使用すれば,基準円路よりも少ない段数と短い距離で家屋をスキャンできることがわかった。
実験結果は、訓練中に見られなかったものを含む複数の家屋を単一のnbvポリシーでスキャンできることも示している。
Scan-RLへのリンクはhttps://github.com/darylperalta/ScanRLで、Houses3Kデータセットはhttps://github.com/darylperalta/Houses3Kで見ることができる。
関連論文リスト
- PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Learnable Earth Parser: Discovering 3D Prototypes in Aerial Scans [18.72080673452804]
本研究では,実世界のシーンの大規模な3次元スキャンを解釈可能な部分に解析するための教師なし手法を提案する。
提案手法は,入力3次元点雲を学習形状の小さな集合に分解する確率的再構成モデルに基づく。
本手法は,視覚的に解釈可能なままの分解精度において,最先端の教師なし手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-19T14:49:31Z) - SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z) - 3D-LatentMapper: View Agnostic Single-View Reconstruction of 3D Shapes [0.0]
視覚変換器(ViT)の中間潜時空間と共同画像テキスト表現モデル(CLIP)を高速かつ効率的なシングルビュー再構成(SVR)に活用する新しいフレームワークを提案する。
本研究ではShapeNetV2データセットを用いてSOTA法との比較実験を行い,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-12-05T11:45:26Z) - Towards 3D VR-Sketch to 3D Shape Retrieval [128.47604316459905]
入力モダリティとしての3Dスケッチの利用について検討し、検索を行うVRシナリオを提唱する。
この新しい3DVR-Sketchから3D形状の検索問題に対する最初のスタンプとして、私たちは4つのコントリビューションを行います。
論文 参考訳(メタデータ) (2022-09-20T22:04:31Z) - Learning 3D Object Shape and Layout without 3D Supervision [26.575177430506667]
3Dシーンはオブジェクトのセットで構成され、それぞれが空間における位置を与える形状とレイアウトを持つ。
本研究では,物体の3次元形状とレイアウトを,地平面形状やレイアウト情報なしで予測する手法を提案する。
我々のアプローチは、より小さく、より多様なデータセットで訓練された教師ありアプローチよりも優れています。
論文 参考訳(メタデータ) (2022-06-14T17:49:44Z) - MinkLoc3D-SI: 3D LiDAR place recognition with sparse convolutions,
spherical coordinates, and intensity [1.1549572298362785]
我々は3次元LiDAR測定の強度を処理するスパース畳み込みベースのソリューションであるMinkLoc3D-SIを紹介する。
実験の結果, 3次元LiDARによる単一スキャンの結果と, 高度な一般化能力が得られた。
MinkLoc3D-SIは3D LiDARから得られた単一のスキャンに適しており、自動運転車に適用できる。
論文 参考訳(メタデータ) (2021-12-13T10:21:34Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。