論文の概要: Accurate Ground-Truth Depth Image Generation via Overfit Training of
Point Cloud Registration using Local Frame Sets
- arxiv url: http://arxiv.org/abs/2207.07016v1
- Date: Thu, 14 Jul 2022 15:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:15:45.379542
- Title: Accurate Ground-Truth Depth Image Generation via Overfit Training of
Point Cloud Registration using Local Frame Sets
- Title(参考訳): 局所フレームセットを用いた点雲登録のオーバーフィットトレーニングによる高精度地中深度画像生成
- Authors: Jiwan Kim, Minchang Kim, Yeong-Gil Shin, and Minyoung Chung
- Abstract要約: 商用RGBディープス(RGB-D)カメラは、シングルビュー奥行き検知デバイスとして広く採用されている。
ほとんどのRGB-Dセンサーの奥行き品質は、単一視野環境からの固有のノイズのため、まだ不十分である。
近年の研究では、高品質な教師付き深度データセットを使用してネットワークをトレーニングするディープラーニングベースのアプローチが提案されている。
- 参考スコア(独自算出の注目度): 5.4660475823312185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate three-dimensional perception is a fundamental task in several
computer vision applications. Recently, commercial RGB-depth (RGB-D) cameras
have been widely adopted as single-view depth-sensing devices owing to their
efficient depth-sensing abilities. However, the depth quality of most RGB-D
sensors remains insufficient owing to the inherent noise from a single-view
environment. Recently, several studies have focused on the single-view depth
enhancement of RGB-D cameras. Recent research has proposed deep-learning-based
approaches that typically train networks using high-quality supervised depth
datasets, which indicates that the quality of the ground-truth (GT) depth
dataset is a top-most important factor for accurate system; however, such
high-quality GT datasets are difficult to obtain. In this study, we developed a
novel method for high-quality GT depth generation based on an RGB-D stream
dataset. First, we defined consecutive depth frames in a local spatial region
as a local frame set. Then, the depth frames were aligned to a certain frame in
the local frame set using an unsupervised point cloud registration scheme. The
registration parameters were trained based on an overfit-training scheme, which
was primarily used to construct a single GT depth image for each frame set. The
final GT depth dataset was constructed using several local frame sets, and each
local frame set was trained independently. The primary advantage of this study
is that a high-quality GT depth dataset can be constructed under various
scanning environments using only the RGB-D stream dataset. Moreover, our
proposed method can be used as a new benchmark GT dataset for accurate
performance evaluations. We evaluated our GT dataset on previously benchmarked
GT depth datasets and demonstrated that our method is superior to
state-of-the-art depth enhancement frameworks.
- Abstract(参考訳): 正確な3次元知覚は、いくつかのコンピュータビジョンアプリケーションにおいて基本的な課題である。
近年,RGBディープス(RGB-D)カメラは,高効率な深度センシング能力のため,単一視野深度センシング装置として広く採用されている。
しかし、ほとんどのRGB-Dセンサーの奥行き品質は、単一視野環境からの固有のノイズのため、まだ不十分である。
近年,RGB-Dカメラの1視点深度向上に焦点が当てられている。
近年の研究では、一般的に高品質な教師付き深度データセットを用いてネットワークを訓練する深層学習に基づくアプローチが提案されており、地上(gt)深度データセットの品質が精度の高いシステムにとって最も重要な要素であることを示しているが、そのような高品質なgtデータセットを得るのは難しい。
本研究では,RGB-Dストリームデータセットに基づく高品質GT深度生成手法を開発した。
まず,局所空間領域における連続深度フレームを局所フレームセットとして定義した。
次に,教師なしポイントクラウド登録方式を用いて,深度フレームをローカルフレームセット内の特定のフレームにアライメントした。
登録パラメータは、フレームセット毎に単一のgt深度イメージを構築するために主に使用されたオーバーフィットトレーニングスキームに基づいてトレーニングされた。
最後のGT深度データセットは複数のローカルフレームセットを使用して構築され、各ローカルフレームセットは独立して訓練された。
この研究の主な利点は、RGB-Dストリームデータセットのみを用いて、様々な走査環境下で高品質なGT深度データセットを構築することができることである。
さらに,提案手法は,正確な性能評価のための新しいベンチマークGTデータセットとして利用できる。
これまでにベンチマークしたGT深度データセットを用いてGTデータセットを評価し,その手法が最先端の深度向上フレームワークよりも優れていることを示した。
関連論文リスト
- Depth-Guided Semi-Supervised Instance Segmentation [62.80063539262021]
Semi-Supervised Instance (SSIS)は、トレーニング中にラベルなしデータの量を活用することを目的としている。
従来のフレームワークは主に、ラベルなし画像のRGB情報を利用して擬似ラベルを生成する。
この制限を克服するために、Depth-Guided (DG)フレームワークを導入します。
論文 参考訳(メタデータ) (2024-06-25T09:36:50Z) - RGB Guided ToF Imaging System: A Survey of Deep Learning-based Methods [30.34690112905212]
RGBカメラをToFイメージングシステムに統合することは、現実世界を知覚するための重要な技術となっている。
本稿では, ネットワーク構造, 学習戦略, 評価指標, ベンチマークデータセット, 客観的関数など, RGBガイドによるToFイメージングに関する研究を包括的にレビューする。
論文 参考訳(メタデータ) (2024-05-16T17:59:58Z) - SGNet: Structure Guided Network via Gradient-Frequency Awareness for
Depth Map Super-Resolution [17.847216843129342]
深度超解像は高分解能(HR)深度を低分解能(LR)深度から復元することを目的としており、そこではRGB画像がこの課題を促進するためにしばしば使用される。
最近の画像誘導型DSRアプローチは、主に深度構造を再構築するための空間領域に焦点を当てている。
本稿では、勾配や周波数領域にもっと注意を払う構造案内ネットワーク(SGNet)を提案する。
論文 参考訳(メタデータ) (2023-12-10T07:17:06Z) - Pyramidal Attention for Saliency Detection [30.554118525502115]
本稿では,RGB画像のみを活用し,RGBから深度を推定し,中間深度特性を利用する。
ピラミッド型アテンション構造を用いて,マルチレベル畳み込み変換器の特徴を抽出し,初期表現の処理を行う。
我々は8つのRGBおよびRGB-Dデータセット上で21と40の最先端SOD法に対する性能を著しく改善したことを報告した。
論文 参考訳(メタデータ) (2022-04-14T06:57:46Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline [48.69396457721544]
深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
論文 参考訳(メタデータ) (2021-04-13T13:27:26Z) - Unpaired Single-Image Depth Synthesis with cycle-consistent Wasserstein
GANs [1.0499611180329802]
実環境深度のリアルタイム推定は、様々な自律システムタスクにとって必須のモジュールである。
本研究では、生成型ニューラルネットワークの分野における最近の進歩を、教師なしの単一画像深度合成に活用する。
論文 参考訳(メタデータ) (2021-03-31T09:43:38Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。