論文の概要: Adaptive Illumination based Depth Sensing using Deep Learning
- arxiv url: http://arxiv.org/abs/2103.12297v1
- Date: Tue, 23 Mar 2021 04:21:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:55:16.371162
- Title: Adaptive Illumination based Depth Sensing using Deep Learning
- Title(参考訳): 深層学習を用いた適応照明に基づく深度センシング
- Authors: Qiqin Dai, Fengqiang Li, Oliver Cossairt, and Aggelos K Katsaggelos
- Abstract要約: RGB画像とスパース深度マップ計測を融合した高密度深度マップを推定する様々な手法が提案されている。
ハードウェアの最近の進歩により、適応的な深度測定が可能となり、深度マップ推定がさらに改善された。
このような適応的なサンプリングマスクは,様々なサンプリング率で多くのrgbおよびスパース深度融合アルゴリズムにうまく一般化できることを示す。
- 参考スコア(独自算出の注目度): 18.72398843488572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense depth map capture is challenging in existing active sparse illumination
based depth acquisition techniques, such as LiDAR. Various techniques have been
proposed to estimate a dense depth map based on fusion of the sparse depth map
measurement with the RGB image. Recent advances in hardware enable adaptive
depth measurements resulting in further improvement of the dense depth map
estimation. In this paper, we study the topic of estimating dense depth from
depth sampling. The adaptive sparse depth sampling network is jointly trained
with a fusion network of an RGB image and sparse depth, to generate optimal
adaptive sampling masks. We show that such adaptive sampling masks can
generalize well to many RGB and sparse depth fusion algorithms under a variety
of sampling rates (as low as $0.0625\%$). The proposed adaptive sampling method
is fully differentiable and flexible to be trained end-to-end with upstream
perception algorithms.
- Abstract(参考訳): 密度深度マップキャプチャは、LiDARのような既存のアクティブスパース照明に基づく深度取得技術において困難である。
RGB画像とスパース深度マップの融合に基づく深度マップを推定する様々な手法が提案されている。
ハードウェアの最近の進歩により、適応的な深度測定が可能となり、深度マップ推定がさらに改善された。
本稿では,深部サンプリングによる深部密集度の推定について検討する。
適応スパース深度サンプリングネットワークは、RGB画像とスパース深度との融合ネットワークで共同で訓練され、最適な適応サンプリングマスクを生成する。
このような適応的なサンプリングマスクは、様々なサンプリングレート($0.0625\%$)の下で、多くのrgbおよびスパース深度融合アルゴリズムにうまく一般化できることを示す。
提案する適応サンプリング法は完全に微分可能であり、上流知覚アルゴリズムを用いてエンドツーエンドで訓練できる柔軟性がある。
関連論文リスト
- Progressive Depth Decoupling and Modulating for Flexible Depth Completion [28.693100885012008]
画像誘導深度補正は、疎LiDARデータとRGB画像から高密度深度マップを生成することを目的としている。
近年の手法では,2つのサブタスク(深度離散化と確率予測)で分類問題として再検討し,有望な性能を示した。
本研究では, 深度範囲をビンに漸進的に分離し, マルチスケールの深度マップを適応的に生成するプログレッシブ・ディープ・デカップリング・変調ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-15T13:45:33Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - RGB-Depth Fusion GAN for Indoor Depth Completion [29.938869342958125]
本稿では,RGBと不完全深度画像のペアを入力として,高密度で完成度の高い深度マップを推定する,新しい2分岐エンドツーエンド融合ネットワークを設計する。
あるブランチでは、RGB画像を微細なテクスチャ化深度マップに転送するRGB深度融合GANを提案する。
他方のブランチでは、W-AdaINという名前の適応核融合モジュールを採用し、2つのブランチにまたがる特徴を伝播させます。
論文 参考訳(メタデータ) (2022-03-21T10:26:38Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Differentiable Diffusion for Dense Depth Estimation from Multi-view
Images [31.941861222005603]
深度マップへの拡散がRGB監督からの多視点再投射誤差を最小限に抑えるように、細かな点集合を最適化することにより、深度を推定する手法を提案する。
また,複雑なシーン再構成に必要な50k以上のポイントを同時に最適化できる効率的な最適化ルーチンを開発した。
論文 参考訳(メタデータ) (2021-06-16T16:17:34Z) - Depth Completion using Plane-Residual Representation [84.63079529738924]
深度情報を最も近い深度平面ラベル$p$と残値$r$で解釈する新しい方法を紹介し,これをPlane-Residual (PR)表現と呼ぶ。
PR表現で深度情報を解釈し,それに対応する深度補完網を用いて,高速な計算により深度補完性能を向上させることができた。
論文 参考訳(メタデータ) (2021-04-15T10:17:53Z) - Direct Depth Learning Network for Stereo Matching [79.3665881702387]
ステレオマッチングのための新しいダイレクトディープス学習ネットワーク(DDL-Net)が設計されている。
DDL-Netは、粗度推定段階と適応勾配深度補正段階の2段階からなる。
我々は,DDL-NetがSceneFlowデータセットで25%,DrivingStereoデータセットで12%の平均的な改善を実現していることを示す。
論文 参考訳(メタデータ) (2020-12-10T10:33:57Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Depth Edge Guided CNNs for Sparse Depth Upsampling [18.659087667114274]
ガイドされたスパース深度アップサンプリングは、アライメントされた高解像度カラー画像がガイダンスとして与えられるとき、不規則にサンプリングされたスパース深度マップをアップサンプリングすることを目的としている。
奥行き画像を用いたスパース・不規則深度画像から深度を復元するためのガイド付き畳み込み層を提案する。
実世界の屋内および合成屋外データセット上で,本手法を検証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2020-03-23T08:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。