論文の概要: Multi-Object Self-Supervised Depth Denoising
- arxiv url: http://arxiv.org/abs/2305.05778v1
- Date: Tue, 9 May 2023 21:48:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-11 15:13:48.133236
- Title: Multi-Object Self-Supervised Depth Denoising
- Title(参考訳): マルチオブジェクト・セルフ・スーパービジョン深度Denoising
- Authors: Claudius Kienle and David Petri
- Abstract要約: 小型でコンパクトな深度カメラは、ロボットの作業空間の正確な追跡と認識には不十分であることが多い。
本稿では,低品質センサからの深度マップを識別するために,高品位センサの深度マップを接地トラスト信号として利用する,自己教師型多目的深度デノナイズパイプラインを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depth cameras are frequently used in robotic manipulation, e.g. for visual
servoing. The quality of small and compact depth cameras is though often not
sufficient for depth reconstruction, which is required for precise tracking in
and perception of the robot's working space. Based on the work of Shabanov et
al. (2021), in this work, we present a self-supervised multi-object depth
denoising pipeline, that uses depth maps of higher-quality sensors as
close-to-ground-truth supervisory signals to denoise depth maps coming from a
lower-quality sensor. We display a computationally efficient way to align sets
of two frame pairs in space and retrieve a frame-based multi-object mask, in
order to receive a clean labeled dataset to train a denoising neural network
on. The implementation of our presented work can be found at
https://github.com/alr-internship/self-supervised-depth-denoising.
- Abstract(参考訳): 深度カメラはロボットの操作、例えば視覚サーボによく用いられる。
小型でコンパクトな深度カメラの品質は、しばしば深度再構成には不十分であり、ロボットの作業空間の正確な追跡と知覚に必要である。
本研究は,シャバノフら(2021年)の研究に基づいて,高品位センサの深度マップを,低品位センサからの深さマップをデノベートするための近距離監視信号として利用する,自己教師付き多目的深度デノベーションパイプラインを提案する。
2つのフレームペアのセットを空間的に整列させ、フレームベースのマルチオブジェクトマスクを取得する計算効率の良い方法を示し、クリーンなラベル付きデータセットを受け取り、ノイズの多いニューラルネットワークをトレーニングする。
私たちの作品の実装はhttps://github.com/alr-internship/self-supervised-depth-denoisingで確認できます。
関連論文リスト
- Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Unsupervised Depth Completion with Calibrated Backprojection Layers [79.35651668390496]
画像とスパース点雲から深度を推定するディープニューラルネットワークアーキテクチャを提案する。
LIDARや他のレンジセンサーから得られるビデオストリームとそれに対応するスパース点雲と、カメラの固有のキャリブレーションパラメータを用いてトレーニングする。
推論時に、トレーニングに用いるものと異なるカメラの校正を、スパース点雲と1つの画像とともにネットワークへの入力として行う。
論文 参考訳(メタデータ) (2021-08-24T05:41:59Z) - DnD: Dense Depth Estimation in Crowded Dynamic Indoor Scenes [68.38952377590499]
複雑な屋内環境の中を移動する単眼カメラから奥行きを推定するための新しい手法を提案する。
提案手法は,静的な背景と複数の移動する人物からなるシーン全体にわたる絶対規模の深度マップを推定する。
論文 参考訳(メタデータ) (2021-08-12T09:12:39Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Multi-Modal Depth Estimation Using Convolutional Neural Networks [0.8701566919381223]
本論文では, 厳しい気象条件下での遠距離センサデータと単一カメラ画像からの深度予測について考察する。
ディープラーニングアプローチを適用して深度を推定するカメラ、レーダー、ライダーなど、さまざまなセンサーモダリティの重要性を探ります。
論文 参考訳(メタデータ) (2020-12-17T15:31:49Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Self-supervised Depth Denoising Using Lower- and Higher-quality RGB-D
sensors [8.34403807284064]
そこで本研究では,低品質センサからの奥行きを識別し,精巧化するための自己教師型深度Denoisingアプローチを提案する。
我々は、不整合低品質カメラと高画質カメラの同時RGB-Dシーケンスを記録し、時間的・空間的に配列を整列する難題を解決する。
次に、より深いニューラルネットワークを学習し、一致した高品質なデータを監視信号のソースとして使用して、低品質な深度を識別する。
論文 参考訳(メタデータ) (2020-09-10T11:18:11Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Depth Map Estimation of Dynamic Scenes Using Prior Depth Information [14.03714478207425]
本稿では,並列に収集した画像から深度マップを推定するアルゴリズムと,動的シーンに対する予め測定した深度マップを提案する。
我々のゴールは、大きな計算コストを伴わずに、能動深度センサと計算との深度取得のバランスをとることである。
提案手法では, 標準ラップトップコンピュータ上で, 最大30FPSの高密度深度マップを, 類似の手法よりも桁違いに高速に取得できる。
論文 参考訳(メタデータ) (2020-02-02T01:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。