論文の概要: Learning Pseudo Front Depth for 2D Forward-Looking Sonar-based
Multi-view Stereo
- arxiv url: http://arxiv.org/abs/2208.00233v1
- Date: Sat, 30 Jul 2022 14:35:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:35:18.008045
- Title: Learning Pseudo Front Depth for 2D Forward-Looking Sonar-based
Multi-view Stereo
- Title(参考訳): 2次元フォワード型ソナー型多視点ステレオの擬似正面奥行き学習
- Authors: Yusheng Wang and Yonghoon Ji and Hiroshi Tsuchiya and Hajime Asama and
Atsushi Yamashita
- Abstract要約: 水中ロボット工学の分野では,2次元前方ソナーから音響画像の欠落した次元情報を取得することがよく知られている。
本稿では,3次元情報を推定する新しい学習型多視点ステレオ手法を提案する。
- 参考スコア(独自算出の注目度): 5.024813922014977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieving the missing dimension information in acoustic images from 2D
forward-looking sonar is a well-known problem in the field of underwater
robotics. There are works attempting to retrieve 3D information from a single
image which allows the robot to generate 3D maps with fly-through motion.
However, owing to the unique image formulation principle, estimating 3D
information from a single image faces severe ambiguity problems. Classical
methods of multi-view stereo can avoid the ambiguity problems, but may require
a large number of viewpoints to generate an accurate model. In this work, we
propose a novel learning-based multi-view stereo method to estimate 3D
information. To better utilize the information from multiple frames, an
elevation plane sweeping method is proposed to generate the
depth-azimuth-elevation cost volume. The volume after regularization can be
considered as a probabilistic volumetric representation of the target. Instead
of performing regression on the elevation angles, we use pseudo front depth
from the cost volume to represent the 3D information which can avoid the 2D-3D
problem in acoustic imaging. High-accuracy results can be generated with only
two or three images. Synthetic datasets were generated to simulate various
underwater targets. We also built the first real dataset with accurate ground
truth in a large scale water tank. Experimental results demonstrate the
superiority of our method, compared to other state-of-the-art methods.
- Abstract(参考訳): 水中ロボット工学の分野では,2次元前方ソナーから音響画像の欠落した次元情報を取得することがよく知られている。
ロボットがフライスルーモーションで3Dマップを作成できるように、単一の画像から3D情報を検索しようとする作業もある。
しかし, 独自の画像定式化原理により, 1枚の画像から3次元情報を推定することは, 深刻な曖昧性問題に直面している。
多視点ステレオの古典的な手法は曖昧さの問題を回避できるが、正確なモデルを生成するのに多くの視点を必要とする。
本研究では,3次元情報を推定する学習型多視点ステレオ手法を提案する。
複数フレームからの情報をよりよく活用するために,深度方位上昇コスト量を生成するために,高架平面掃討法を提案する。
正規化後の体積は、対象の確率的体積表現と見なすことができる。
標高角のレグレッションを行う代わりに、コストボリュームから擬似前面深度を用いて3次元情報を表現し、音響画像における2D-3D問題を回避する。
精度の高い結果は2つまたは3つの画像で生成できる。
様々な水中ターゲットをシミュレートするために合成データセットが作成された。
私たちはまた、大規模な水槽に正確な地上真理を持つ最初の実際のデータセットを構築しました。
実験により,他の最先端手法と比較して,本手法の優位性を示した。
関連論文リスト
- Object Modeling from Underwater Forward-Scan Sonar Imagery with Sea-Surface Multipath [16.057203527513632]
海面近傍で撮影された物体に対する重要な貢献は、気-水界面によるマルチパスアーチファクトの解決である。
ここでは、直接目標後方散乱によって形成された物体像は、ほとんど常にゴーストや鏡部品によって破壊される。
各ビュー内の劣化したオブジェクト領域をモデル化し,ローカライズし,破棄することにより,復元された3次元形状の歪みを回避する。
論文 参考訳(メタデータ) (2024-09-10T18:46:25Z) - Creating Seamless 3D Maps Using Radiance Fields [0.0]
ナビゲーション,仮想観光,都市計画などの応用のために,2次元入力画像から3次元オブジェクトモデルと3次元マップを作成することが望ましい。
従来の方法では反射面と特異反射が困難である。
Google Road Viewは実際の3Dオブジェクトモデルを作成するのではなく、ビューの集合である。
論文 参考訳(メタデータ) (2024-03-17T22:49:07Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - OccDepth: A Depth-Aware Method for 3D Semantic Scene Completion [6.297023466646343]
3Dセマンティックシーンコンプリート(SSC)は、自律運転やロボットシステムの分野に適用可能な、密集した幾何学的および意味的なシーン表現を提供することができる。
ステレオ画像(またはRGBD画像)から暗黙的な深度情報をフル活用して3次元形状の復元を支援する,OccDepth という最初のステレオSSC手法を提案する。
論文 参考訳(メタデータ) (2023-02-27T06:35:03Z) - Time and Cost-Efficient Bathymetric Mapping System using Sparse Point
Cloud Generation and Automatic Object Detection [0.0]
サイドスキャンソナーセンサーは安価で、特に魚用ファインダーで利用できる。
サイドスキャンソナー画像から3D情報を抽出することは、信号対雑音比が低いため難しい課題である。
本稿では,サイドスキャンソナー画像からスパース3D点雲を生成する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-19T02:58:08Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - DSGN++: Exploiting Visual-Spatial Relation forStereo-based 3D Detectors [60.88824519770208]
カメラベースの3Dオブジェクト検出器は、LiDARセンサーよりも広い展開と低価格のため歓迎されている。
我々は3次元幾何学と意味論の両方を表現するステレオボリューム構造について、以前のステレオモデリングDSGNを再考する。
本稿では,2次元から3次元のパイプラインを通しての情報フローを改善することを目的としたDSGN++を提案する。
論文 参考訳(メタデータ) (2022-04-06T18:43:54Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose
Estimation from a Single Depth Map [72.93634777578336]
弱教師付き方式で3次元畳み込みを訓練した新しいアーキテクチャを提案する。
提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。
我々の手法は、NYUとBigHand2.2Mデータセットで視覚的により合理的で現実的な手形を生成する。
論文 参考訳(メタデータ) (2020-04-03T14:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。