論文の概要: PDC: Piecewise Depth Completion utilizing Superpixels
- arxiv url: http://arxiv.org/abs/2107.06711v1
- Date: Wed, 14 Jul 2021 13:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:18:12.468937
- Title: PDC: Piecewise Depth Completion utilizing Superpixels
- Title(参考訳): PDC: スーパーピクセルを用いた鉛直深度補完
- Authors: Dennis Teutscher, Patrick Mangat, Oliver Wasenm\"uller
- Abstract要約: 現在のアプローチは、いくつかの既知の欠点のあるCNNベースのメソッドに依存することが多い。
深層学習なしで完全に機能する小説『Piecewise Depth Completion』(PDC)を提案する。
本評価では,提案した処理ステップがKITTIデータセットに与える影響と,本手法の全体的な性能に与える影響について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth completion from sparse LiDAR and high-resolution RGB data is one of the
foundations for autonomous driving techniques. Current approaches often rely on
CNN-based methods with several known drawbacks: flying pixel at depth
discontinuities, overfitting to both a given data set as well as error metric,
and many more. Thus, we propose our novel Piecewise Depth Completion (PDC),
which works completely without deep learning. PDC segments the RGB image into
superpixels corresponding the regions with similar depth value. Superpixels
corresponding to same objects are gathered using a cost map. At the end, we
receive detailed depth images with state of the art accuracy. In our
evaluation, we can show both the influence of the individual proposed
processing steps and the overall performance of our method on the challenging
KITTI dataset.
- Abstract(参考訳): スパースLiDARと高解像度RGBデータからの深度補完は、自動運転技術の基礎の1つである。
現在のアプローチは、いくつかの既知の欠点があるCNNベースの手法に依存している: 深度不連続のフライングピクセル、与えられたデータセットとエラーメトリクスの両方に過度に適合する。
そこで我々は,深層学習を伴わずに完全に機能する小説Piecewise Depth Completion (PDC)を提案する。
PDCはRGB画像を、同様の深さ値の領域に対応するスーパーピクセルに分割する。
同じオブジェクトに対応するスーパーピクセルはコストマップを使用して収集される。
最後に,芸術的精度を指標とした詳細な深度画像が得られた。
本評価では,提案する個々の処理ステップと提案手法の全体的な性能が,挑戦的なkittiデータセットに与える影響を示すことができる。
関連論文リスト
- Temporal Lidar Depth Completion [0.08192907805418582]
PENetは, 再発の恩恵を受けるために, 最新の手法であるPENetをどう修正するかを示す。
提案アルゴリズムは,KITTI深度補完データセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-17T08:25:31Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Spherical Space Feature Decomposition for Guided Depth Map
Super-Resolution [123.04455334124188]
誘導深度マップ超解像(GDSR)は、低解像度(LR)深度マップに高解像度(HR)RGB画像を含む追加情報を加えることを目的としている。
本稿では,この問題を解決するために,Spherical Space Feature Decomposition Network (SSDNet)を提案する。
提案手法は,4つのテストデータセットの最先端結果と実世界のシーンへの一般化を実現する。
論文 参考訳(メタデータ) (2023-03-15T21:22:21Z) - Pixel Difference Convolutional Network for RGB-D Semantic Segmentation [2.334574428469772]
RGB-Dセマンティックセグメンテーションは、深度データの可用性のために畳み込みニューラルネットワークによって前進することができる。
固定グリッドカーネル構造を考えると、CNNは詳細できめ細かい情報をキャプチャする能力に限られる。
本稿では,差分畳み込みネットワーク(PDCNet)を提案する。
論文 参考訳(メタデータ) (2023-02-23T12:01:22Z) - Colored Point Cloud to Image Alignment [15.828285556159026]
そこで本研究では,カラーマッチングと幾何マッチングにより,色付き点雲を所定の色画像に整列する微分最適化手法を提案する。
カメラ画像と点雲の色との変換は、点雲の相対的な位置と一致した色とのマッチングを繰り返すことによって行う。
論文 参考訳(メタデータ) (2021-10-07T08:12:56Z) - Deterministic Guided LiDAR Depth Map Completion [0.0]
本稿では, 誘導RGB画像を用いて, 疎LiDARに基づく深度マップを密度化するための非深度学習に基づくアプローチを提案する。
本手法の評価は,提案手法の検証を行うKITTI深度補完ベンチマークを用いて行う。
論文 参考訳(メタデータ) (2021-06-14T09:19:47Z) - Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline [48.69396457721544]
深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
論文 参考訳(メタデータ) (2021-04-13T13:27:26Z) - Dual Pixel Exploration: Simultaneous Depth Estimation and Image
Restoration [77.1056200937214]
本研究では,ぼかしと深度情報をリンクするDPペアの形成について検討する。
本稿では,画像の深さを共同で推定し,復元するためのエンドツーエンドDDDNet(DPベースのDepth and De Network)を提案する。
論文 参考訳(メタデータ) (2020-12-01T06:53:57Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。