論文の概要: Time and Cost-Efficient Bathymetric Mapping System using Sparse Point
Cloud Generation and Automatic Object Detection
- arxiv url: http://arxiv.org/abs/2210.10263v1
- Date: Wed, 19 Oct 2022 02:58:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 15:48:49.038341
- Title: Time and Cost-Efficient Bathymetric Mapping System using Sparse Point
Cloud Generation and Automatic Object Detection
- Title(参考訳): スパース点雲生成と自動物体検出を用いた時間・費用効率のBathymetric Mapping System
- Authors: Andres Pulido, Ruoyao Qin, Antonio Diaz, Andrew Ortega, Peter Ifju,
Jaejeong Shin
- Abstract要約: サイドスキャンソナーセンサーは安価で、特に魚用ファインダーで利用できる。
サイドスキャンソナー画像から3D情報を抽出することは、信号対雑音比が低いため難しい課題である。
本稿では,サイドスキャンソナー画像からスパース3D点雲を生成する効率的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generating 3D point cloud (PC) data from noisy sonar measurements is a
problem that has potential applications for bathymetry mapping, artificial
object inspection, mapping of aquatic plants and fauna as well as underwater
navigation and localization of vehicles such as submarines. Side-scan sonar
sensors are available in inexpensive cost ranges, especially in fish-finders,
where the transducers are usually mounted to the bottom of a boat and can
approach shallower depths than the ones attached to an Uncrewed Underwater
Vehicle (UUV) can. However, extracting 3D information from side-scan sonar
imagery is a difficult task because of its low signal-to-noise ratio and
missing angle and depth information in the imagery. Since most algorithms that
generate a 3D point cloud from side-scan sonar imagery use Shape from Shading
(SFS) techniques, extracting 3D information is especially difficult when the
seafloor is smooth, is slowly changing in depth, or does not have identifiable
objects that make acoustic shadows. This paper introduces an efficient
algorithm that generates a sparse 3D point cloud from side-scan sonar images.
This computation is done in a computationally efficient manner by leveraging
the geometry of the first sonar return combined with known positions provided
by GPS and down-scan sonar depth measurement at each data point. Additionally,
this paper implements another algorithm that uses a Convolutional Neural
Network (CNN) using transfer learning to perform object detection on side-scan
sonar images collected in real life and generated with a simulation. The
algorithm was tested on both real and synthetic images to show reasonably
accurate anomaly detection and classification.
- Abstract(参考訳): うるさいソナー測定から3次元点雲(PC)データを生成することは、潜水観測、人工物体検査、水生植物や動物相のマッピング、水中航法、潜水艦等の車両の局所化に潜在的に応用できる問題である。
横スキャンのソナーセンサーは安価なコスト範囲で、特に魚のファインダーでは、トランスデューサは通常ボートの底に取り付けられ、無人の水中車両(uuv)に搭載されているものよりも浅い深さに近づくことができる。
しかし, 横スキャンソナー画像からの3次元情報抽出は, 信号対雑音比が低く, 画像中の角度や深度情報がないため困難である。
横スキャンソナー画像から3dポイントクラウドを生成するほとんどのアルゴリズムはシェーディング(sfs)技術から形状を用いるため、海底が滑らかで、深さが緩やかに変化している場合、あるいは音響シャドーを作る識別可能な物体を持たない場合、特に3d情報の抽出は困難である。
本稿では,サイドスキャンソナー画像からスパース3D点雲を生成するアルゴリズムを提案する。
この計算は、第1ソナーリターンの幾何とGPSによる既知の位置と、各データポイントにおけるダウンスキャンソナー深度測定とを組み合わせて、計算的に効率的に行われる。
さらに,トランスファー学習を用いた畳み込みニューラルネットワーク(cnn)を用いて,実生活で収集し,シミュレーションにより生成した横スキャンソナー画像の物体検出を行うアルゴリズムを実装した。
このアルゴリズムは実画像と合成画像の両方でテストされ、合理的に正確な異常検出と分類を示した。
関連論文リスト
- MVSDet: Multi-View Indoor 3D Object Detection via Efficient Plane Sweeps [51.44887282336391]
多視点屋内3次元物体検出の課題は、画像から正確な幾何学情報を推測して正確な3次元物体検出を行うことである。
それまでの手法は、幾何推論にNeRFに依存していた。
平面スイープを用いた3次元物体検出のためのMVSDetを提案する。
論文 参考訳(メタデータ) (2024-10-28T21:58:41Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Towards Dense People Detection with Deep Learning and Depth images [9.376814409561726]
本稿では,1つの深度画像から複数の人物を検出するDNNシステムを提案する。
我々のニューラルネットワークは深度画像を処理し、画像座標の確率マップを出力する。
我々は、この戦略が効果的であることを示し、トレーニング中に使用するものと異なるシーンで動作するように一般化したネットワークを創出する。
論文 参考訳(メタデータ) (2020-07-14T16:43:02Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - 3D Object Detection Method Based on YOLO and K-Means for Image and Point
Clouds [1.9458156037869139]
ライダーに基づく3Dオブジェクト検出と分類タスクは、自動運転に不可欠である。
本稿では,点雲と画像に基づく3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T04:32:36Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。