論文の概要: Scene Completeness-Aware Lidar Depth Completion for Driving Scenario
- arxiv url: http://arxiv.org/abs/2003.06945v3
- Date: Sat, 20 Feb 2021 23:50:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 09:14:33.605686
- Title: Scene Completeness-Aware Lidar Depth Completion for Driving Scenario
- Title(参考訳): 運転シナリオにおけるシーン完全性を考慮したライダー深度補完
- Authors: Cho-Ying Wu, Ulrich Neumann
- Abstract要約: 本稿では,Scene Completeness-Aware Depth Completion (SCADC)を導入し,詳細なシーン構造と完全なシーン構造を持つ深度マップに生ライダースキャンを組み込む。
近年のライダーのスパース深度補完は下層のみに焦点を当てており,KITTIなどの既存のデータセットでは上層部に対する基盤構造が得られていないため,上層部における不規則な推定が可能である。
我々は,大型トラックやロード車などの走行シナリオにおいて,物体はシーンの上部にまで拡張可能であることを論じる。したがって,RGBDアルゴリズムでは,上部シーン推定を構造化した深度マップが重要である。
- 参考スコア(独自算出の注目度): 16.74710649245842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Scene Completeness-Aware Depth Completion (SCADC) to
complete raw lidar scans into dense depth maps with fine and complete scene
structures. Recent sparse depth completion for lidars only focuses on the lower
scenes and produces irregular estimations on the upper because existing
datasets, such as KITTI, do not provide groundtruth for upper areas. These
areas are considered less important since they are usually sky or trees of less
scene understanding interest. However, we argue that in several driving
scenarios such as large trucks or cars with loads, objects could extend to the
upper parts of scenes. Thus depth maps with structured upper scene estimation
are important for RGBD algorithms. SCADC adopts stereo images that produce
disparities with better scene completeness but are generally less precise than
lidars, to help sparse lidar depth completion. To our knowledge, we are the
first to focus on scene completeness of sparse depth completion. We validate
our SCADC on both depth estimate precision and scene-completeness on KITTI.
Moreover, we experiment on less-explored outdoor RGBD semantic segmentation
with scene completeness-aware D-input to validate our method.
- Abstract(参考訳): 本稿では,Scene Completeness-Aware Depth Completion (SCADC)を導入し,詳細なシーン構造と完全なシーン構造を持つ深度マップに生ライダースキャンを組み込む。
最近のlidarの奥行きは低いシーンにのみ焦点を合わせており、kittiのような既存のデータセットが上層部に基部を提供していないため、上層で不規則な推定を行う。
これらの地域は、通常、風景理解の少ない空や木であるため、重要ではないと考えられている。
しかし、大型トラックや積載車のようないくつかの運転シナリオでは、物体はシーンの上部まで伸びる可能性がある。
したがって、rgbdアルゴリズムでは構造化上シーン推定を伴う深度マップが重要である。
SCADCは、シーンの完全性に優れた相違をもたらすステレオ画像を採用するが、ライダーよりも一般的には正確ではない。
我々の知る限りでは、我々はスパース深度完了のシーン完全性に最初に焦点を当てている。
我々は,KITTIにおける深度推定精度とシーン完全性の両方についてSCADCを検証した。
さらに,シーン完全性を考慮したd入力を用いたアウトドアrgbdセマンティクスセグメンテーションを実験し,提案手法の有効性を検証した。
関連論文リスト
- Mind The Edge: Refining Depth Edges in Sparsely-Supervised Monocular
Depth Estimation [44.713357782860356]
直接推定した深度エッジは,MDEトレーニングから間接的に現れるエッジよりも有意に正確であることを示す。
いくつかの挑戦的データセットに対して,画素ごとの深度精度を比較検討することにより,深度エッジの精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2022-12-10T14:49:24Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation [11.929584800629673]
自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
提案したOCFD-Netは,粗度深度マップの学習に離散深度制約を用いるだけでなく,シーン深度残差の学習にも連続深度制約を用いる。
論文 参考訳(メタデータ) (2022-03-21T12:43:42Z) - DnD: Dense Depth Estimation in Crowded Dynamic Indoor Scenes [68.38952377590499]
複雑な屋内環境の中を移動する単眼カメラから奥行きを推定するための新しい手法を提案する。
提案手法は,静的な背景と複数の移動する人物からなるシーン全体にわたる絶対規模の深度マップを推定する。
論文 参考訳(メタデータ) (2021-08-12T09:12:39Z) - Semantic Scene Completion via Integrating Instances and Scene
in-the-Loop [73.11401855935726]
Semantic Scene Completionは、単一の視野深度またはRGBD画像から正確なボキセルワイズセマンティクスで完全な3Dシーンを再構築することを目指しています。
本稿では、シーンレベルのセマンティクス情報とインスタンスレベルのセマンティクス情報の両方を利用するScene-Instance-Scene Network(textitSISNet)を提案する。
本手法は, セマンティックなカテゴリが容易に混在している近傍のオブジェクトと同様に, きめ細かい形状の細部を推定できる。
論文 参考訳(メタデータ) (2021-04-08T09:50:30Z) - DynOcc: Learning Single-View Depth from Dynamic Occlusion Cues [37.837552043766166]
In-the-wild シーンからなる第1の深度データセット DynOcc を導入する。
提案手法は,これらのダイナミックシーンの手がかりを利用して,選択したビデオフレームのポイント間の深さ関係を推定する。
DynOccデータセットには、91Kフレームのさまざまなビデオセットから22Mの深さペアが含まれています。
論文 参考訳(メタデータ) (2021-03-30T22:17:36Z) - Learning Depth via Leveraging Semantics: Self-supervised Monocular Depth
Estimation with Both Implicit and Explicit Semantic Guidance [34.62415122883441]
シーン認識深度推定のための暗黙的意味特徴と深度特徴とを一致させるセマンティック認識空間特徴アライメント方式を提案する。
また,推定深度マップを実シーンの文脈特性と整合性に明示的に制約する意味誘導型ランキング損失を提案する。
複雑なシーンや多様なセマンティックカテゴリで一貫して優れた、高品質な深度マップを作成します。
論文 参考訳(メタデータ) (2021-02-11T14:29:51Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - Depth Based Semantic Scene Completion with Position Importance Aware
Loss [52.06051681324545]
PALNetはセマンティックシーン補完のための新しいハイブリッドネットワークである。
詳細な深度情報を用いて,多段階から2次元特徴と3次元特徴の両方を抽出する。
オブジェクトのバウンダリやシーンの隅といった重要な詳細を復元することは有益である。
論文 参考訳(メタデータ) (2020-01-29T07:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。