論文の概要: Spatial Acoustic Projection for 3D Imaging Sonar Reconstruction
- arxiv url: http://arxiv.org/abs/2206.02840v1
- Date: Mon, 6 Jun 2022 18:24:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 15:29:07.400356
- Title: Spatial Acoustic Projection for 3D Imaging Sonar Reconstruction
- Title(参考訳): 3次元画像ソナー再構成のための空間音響投影
- Authors: Sascha Arnold, Bilal Wehbe
- Abstract要約: マルチビーム画像ソナーを用いた3次元表面の再構成手法を提案する。
3次元格子における固定セル位置の異なる視点からソナーが測定した強度を統合する。
我々は畳み込みニューラルネットワークを訓練し、署名された距離と各セルの最も近い表面への方向を予測できるようにします。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we present a novel method for reconstructing 3D surfaces using a
multi-beam imaging sonar. We integrate the intensities measured by the sonar
from different viewpoints for fixed cell positions in a 3D grid. For each cell
we integrate a feature vector that holds the mean intensity for a discretized
range of viewpoints. Based on the feature vectors and independent sparse range
measurements that act as ground truth information, we train convolutional
neural networks that allow us to predict the signed distance and direction to
the nearest surface for each cell. The predicted signed distances can be
projected into a truncated signed distance field (TSDF) along the predicted
directions. Utilizing the marching cubes algorithm, a polygon mesh can be
rendered from the TSDF. Our method allows a dense 3D reconstruction from a
limited set of viewpoints and was evaluated on three real-world datasets.
- Abstract(参考訳): 本研究では,マルチビーム画像ソナーを用いた3次元表面再構成手法を提案する。
3次元格子内の固定セル位置の異なる視点からソナーによって測定された強度を統合する。
各セルに対して、離散化された視点の平均強度を保持する特徴ベクトルを統合する。
基底真理情報として機能する特徴ベクトルと独立スパース範囲の測定に基づいて、各セルの最も近い表面への符号付き距離と方向を予測する畳み込みニューラルネットワークを訓練する。
予測された符号距離は、予測された方向に沿って切り離された符号距離場(TSDF)に投影することができる。
マーチングキューブアルゴリズムを用いることで、TSDFからポリゴンメッシュをレンダリングすることができる。
本手法は,限られた視点から高密度な3次元再構成を可能にし,実世界の3つのデータセットで評価した。
関連論文リスト
- OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Cross-Dimensional Refined Learning for Real-Time 3D Visual Perception
from Monocular Video [2.2299983745857896]
本稿では3次元シーンの幾何学的構造と意味的ラベルを協調的に知覚する新しいリアルタイム能動的学習法を提案する。
本稿では,3次元メッシュと3次元セマンティックラベリングの両方をリアルタイムに抽出する,エンドツーエンドのクロスディメンテーションニューラルネットワーク(CDRNet)を提案する。
論文 参考訳(メタデータ) (2023-03-16T11:53:29Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - A Deep Signed Directional Distance Function for Object Shape
Representation [12.741811850885309]
本稿では,連続符号付き方向距離関数(SDDF)を最適化することにより,新しい距離ビューを可能にする新しい形状モデルを提案する。
任意の方向に最も近い表面までの距離を測定するSDFとは異なり、SDDFは所定の方向に距離を測定する。
本モデルは,SDDF値が視方向に沿って直線的に減少する特性を構成によって符号化する。
論文 参考訳(メタデータ) (2021-07-23T04:11:59Z) - Neural-Pull: Learning Signed Distance Functions from Point Clouds by
Learning to Pull Space onto Surfaces [68.12457459590921]
3次元点雲から連続曲面を再構成することは、3次元幾何処理の基本的な操作である。
textitNeural-Pullは、シンプルで高品質なSDFを実現する新しいアプローチです。
論文 参考訳(メタデータ) (2020-11-26T23:18:10Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - Atlas: End-to-End 3D Scene Reconstruction from Posed Images [13.154808583020229]
RGB画像の集合からTSDF(truncated signed distance function)を直接回帰することにより,シーンのエンドツーエンドな3D再構成手法を提案する。
2D CNNは、各画像から特徴を独立して抽出し、その特徴をバックプロジェクションし、ボクセルボリュームに蓄積する。
3D CNNは蓄積した特徴を洗練し、TSDF値を予測する。
論文 参考訳(メタデータ) (2020-03-23T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。