論文の概要: Spacecraft depth completion based on the gray image and the sparse depth
map
- arxiv url: http://arxiv.org/abs/2208.14030v1
- Date: Tue, 30 Aug 2022 07:22:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 12:34:20.167230
- Title: Spacecraft depth completion based on the gray image and the sparse depth
map
- Title(参考訳): グレイ画像とスパース深度マップによる宇宙船の深度完了
- Authors: Xiang Liu, Hongyuan Wang, Zhiqiang Yan, Yu Chen, Xinlong Chen, Weichun
Chen
- Abstract要約: 光検出・測光センサ(LIDAR)と単眼カメラを用いて、宇宙船の3次元構造を検知する。
グレー画像とスパース深度マップに基づいて高密度深度マップを復元するために、SDCNet(Spacecraft Depth Completion Network)を提案する。
SDCNetは、オブジェクトレベルの宇宙船深度完了タスクを、前景のセグメンテーションサブタスクと前景の深さ完了サブタスクに分解する。
- 参考スコア(独自算出の注目度): 6.475652372626837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perceiving the three-dimensional (3D) structure of the spacecraft is a
prerequisite for successfully executing many on-orbit space missions, and it
can provide critical input for many downstream vision algorithms. In this
paper, we propose to sense the 3D structure of spacecraft using light detection
and ranging sensor (LIDAR) and a monocular camera. To this end, Spacecraft
Depth Completion Network (SDCNet) is proposed to recover the dense depth map
based on gray image and sparse depth map. Specifically, SDCNet decomposes the
object-level spacecraft depth completion task into foreground segmentation
subtask and foreground depth completion subtask, which segments the spacecraft
region first and then performs depth completion on the segmented foreground
area. In this way, the background interference to foreground spacecraft depth
completion is effectively avoided. Moreover, an attention-based feature fusion
module is also proposed to aggregate the complementary information between
different inputs, which deduces the correlation between different features
along the channel and the spatial dimension sequentially. Besides, four metrics
are also proposed to evaluate object-level depth completion performance, which
can more intuitively reflect the quality of spacecraft depth completion
results. Finally, a large-scale satellite depth completion dataset is
constructed for training and testing spacecraft depth completion algorithms.
Empirical experiments on the dataset demonstrate the effectiveness of the
proposed SDCNet, which achieves 0.25m mean absolute error of interest and
0.759m mean absolute truncation error, surpassing state-of-the-art methods by a
large margin. The spacecraft pose estimation experiment is also conducted based
on the depth completion results, and the experimental results indicate that the
predicted dense depth map could meet the needs of downstream vision tasks.
- Abstract(参考訳): 宇宙船の3次元構造を知覚することは、多くの軌道上の宇宙ミッションを成功させるための前提条件であり、多くの下流のビジョンアルゴリズムに重要なインプットを提供する。
本稿では,光検出・測位センサ(lidar)と単眼カメラを用いて,宇宙船の3次元構造を検出することを提案する。
この目的のために,SDCNet(Spacecraft Depth Completion Network)を提案し,グレー画像とスパース深度マップに基づいて深度マップを復元する。
具体的には、sdcnetは、対象レベルの宇宙船深度完了タスクを前景セグメンテーションサブタスクと前景深度完了サブタスクに分解する。
このように、前景の宇宙船深度完了に対する背景干渉を効果的に回避する。
さらに,注意に基づく特徴融合モジュールも提案し,各入力間の補完情報を集約し,チャネルに沿った異なる特徴と空間次元との相関を逐次的に推定する。
さらに、宇宙船の深度完了結果の品質をより直感的に反映できるオブジェクトレベルの深度完了性能を評価するために、4つの指標が提案されている。
最後に、宇宙船の深度完了アルゴリズムの訓練とテストのために、大規模な衛星深度完了データセットを構築します。
このデータセットに関する実証実験では、提案したSDCNetの有効性を実証し、関心の絶対誤差0.25m、絶対トラクション誤差0.759mを達成し、最先端の手法をはるかに上回った。
宇宙船の姿勢推定実験も深度完了結果に基づいて行われ, 予測された深部深部マップが下流の視覚課題のニーズに合致する可能性が示唆された。
関連論文リスト
- DepthSplat: Connecting Gaussian Splatting and Depth [90.06180236292866]
ガウススプラッティングと深さ推定を結合するDepthSplatを提案する。
まず,事前学習した単眼深度特徴を生かして,頑健な多眼深度モデルを提案する。
また,ガウス的スプラッティングは教師なし事前学習の目的として機能することを示す。
論文 参考訳(メタデータ) (2024-10-17T17:59:58Z) - OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - Transparent Object Depth Completion [11.825680661429825]
理解と操作のための透明な物体の認識は、依然として大きな課題である。
深度マップに大きく依存する既存のロボットグリップ法は、その独特の視覚特性のために透明な物体には適さない。
本稿では,一視点RGB-Dに基づく深度推定と多視点深度推定の長所を組み合わせた,透明物体深度補完のためのエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:38:06Z) - Self-Supervised Depth Completion Guided by 3D Perception and Geometry
Consistency [17.68427514090938]
本稿では,3次元の知覚的特徴と多視点幾何整合性を利用して,高精度な自己監督深度補完法を提案する。
NYU-Depthv2 と VOID のベンチマークデータセットを用いた実験により,提案モデルが最先端の深度補完性能を実現することを示す。
論文 参考訳(メタデータ) (2023-12-23T14:19:56Z) - Boosting Monocular 3D Object Detection with Object-Centric Auxiliary
Depth Supervision [13.593246617391266]
本稿では,RGB画像に基づく3D検出器を,深度推定タスクに類似した深度予測損失で共同でトレーニングすることにより,RGB画像に基づく3D検出器の強化手法を提案する。
新たな物体中心深度予測損失は,3次元物体検出において重要な前景物体周辺の深度に焦点をあてる。
我々の深度回帰モデルは、物体の3次元信頼度を表すために、深度の不確かさを予測するためにさらに訓練される。
論文 参考訳(メタデータ) (2022-10-29T11:32:28Z) - Visual Attention-based Self-supervised Absolute Depth Estimation using
Geometric Priors in Autonomous Driving [8.045833295463094]
空間的注意とチャネルの注意をすべてのステージに適用する,完全に視覚的注意に基づく奥行き(VADepth)ネットワークを導入する。
VADepthネットワークは、空間的およびチャネル的次元に沿った特徴の依存関係を長距離にわたって連続的に抽出することにより、重要な詳細を効果的に保存することができる。
KITTIデータセットの実験結果は、このアーキテクチャが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2022-05-18T08:01:38Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - DenseLiDAR: A Real-Time Pseudo Dense Depth Guided Depth Completion
Network [3.1447111126464997]
本稿では,DenseLiDARを提案する。
単純な形態的操作から得られた高密度な擬似深度マップを利用してネットワークを誘導する。
我々のモデルは50Hzのフレームレートで最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-08-28T14:18:29Z) - Depth Completion using Plane-Residual Representation [84.63079529738924]
深度情報を最も近い深度平面ラベル$p$と残値$r$で解釈する新しい方法を紹介し,これをPlane-Residual (PR)表現と呼ぶ。
PR表現で深度情報を解釈し,それに対応する深度補完網を用いて,高速な計算により深度補完性能を向上させることができた。
論文 参考訳(メタデータ) (2021-04-15T10:17:53Z) - Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline [48.69396457721544]
深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
論文 参考訳(メタデータ) (2021-04-13T13:27:26Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。