論文の概要: RGB Guided ToF Imaging System: A Survey of Deep Learning-based Methods
- arxiv url: http://arxiv.org/abs/2405.10357v1
- Date: Thu, 16 May 2024 17:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 17:42:52.345802
- Title: RGB Guided ToF Imaging System: A Survey of Deep Learning-based Methods
- Title(参考訳): RGBガイドToFイメージングシステム:深層学習手法の検討
- Authors: Xin Qiao, Matteo Poggi, Pengchao Deng, Hao Wei, Chenyang Ge, Stefano Mattoccia,
- Abstract要約: RGBカメラをToFイメージングシステムに統合することは、現実世界を知覚するための重要な技術となっている。
本稿では, ネットワーク構造, 学習戦略, 評価指標, ベンチマークデータセット, 客観的関数など, RGBガイドによるToFイメージングに関する研究を包括的にレビューする。
- 参考スコア(独自算出の注目度): 30.34690112905212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating an RGB camera into a ToF imaging system has become a significant technique for perceiving the real world. The RGB guided ToF imaging system is crucial to several applications, including face anti-spoofing, saliency detection, and trajectory prediction. Depending on the distance of the working range, the implementation schemes of the RGB guided ToF imaging systems are different. Specifically, ToF sensors with a uniform field of illumination, which can output dense depth but have low resolution, are typically used for close-range measurements. In contrast, LiDARs, which emit laser pulses and can only capture sparse depth, are usually employed for long-range detection. In the two cases, depth quality improvement for RGB guided ToF imaging corresponds to two sub-tasks: guided depth super-resolution and guided depth completion. In light of the recent significant boost to the field provided by deep learning, this paper comprehensively reviews the works related to RGB guided ToF imaging, including network structures, learning strategies, evaluation metrics, benchmark datasets, and objective functions. Besides, we present quantitative comparisons of state-of-the-art methods on widely used benchmark datasets. Finally, we discuss future trends and the challenges in real applications for further research.
- Abstract(参考訳): RGBカメラをToFイメージングシステムに統合することは、現実世界を知覚するための重要な技術となっている。
RGBガイド付きToFイメージングシステムは、顔の偽造、唾液度検出、軌跡予測など、いくつかの応用に欠かせない。
作業範囲距離によっては、RGB誘導型ToFイメージングシステムの実装方式が異なる。
特に、深い深度を出力できるが解像度の低い均一な照明場を持つToFセンサーは、通常、近距離測定に使用される。
対照的に、レーザーパルスを放出し、スパース深さのみを捕捉できるLiDARは、通常は長距離検出に使用される。
両症例において,RGBガイドToF画像の深度品質改善は,ガイド深度超解像とガイド深度完全像の2つのサブタスクに対応している。
本稿では,近年の深層学習による領域の大幅な向上を踏まえ,ネットワーク構造,学習戦略,評価指標,ベンチマークデータセット,客観的関数など,RGBガイド型ToFイメージングに関する研究を包括的にレビューする。
さらに,広く使用されているベンチマークデータセットにおいて,最先端手法の定量的比較を行った。
最後に,今後の動向と今後の研究課題について論じる。
関連論文リスト
- AGG-Net: Attention Guided Gated-convolutional Network for Depth Image
Completion [1.8820731605557168]
注意誘導ゲート畳み込みネットワーク(AGG-Net)に基づく深度画像補完のための新しいモデルを提案する。
符号化段階では、異なるスケールでの深度と色の特徴の融合を実現するために、AG-GConvモジュールが提案されている。
復号段階では、アテンションガイドスキップ接続(AG-SC)モジュールが提示され、再構成にあまりにも多くの深度に関係のない特徴を導入することを避ける。
論文 参考訳(メタデータ) (2023-09-04T14:16:08Z) - Achieving RGB-D level Segmentation Performance from a Single ToF Camera [9.99197786343155]
Infrared (IR) とdeep image を用いて1台の Time-of-Flight (ToF) カメラのセマンティックセグメンテーションタスクにおいて,RGB-D カメラと同じレベルの精度が得られることを示す。
論文 参考訳(メタデータ) (2023-06-30T13:14:27Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - MIPI 2023 Challenge on RGB+ToF Depth Completion: Methods and Results [76.77266693620425]
深層学習により、RGB画像からの深度マップのより正確で効率的な完成と、粗いToF測定が可能になった。
異なる深度補完法の性能を評価するため,RGB+スパースToF深度補完コンペティションを組織した。
本稿では,競争の結果を提示し,トップパフォーマンス手法の長所と短所を解析する。
論文 参考訳(メタデータ) (2023-04-27T02:00:04Z) - FloatingFusion: Depth from ToF and Image-stabilized Stereo Cameras [37.812681878193914]
スマートフォンには、飛行時間(ToF)深度センサーと複数のカラーカメラを備えたマルチモーダルカメラシステムが搭載されている。
高精度な高解像度の深度を作り出すことは、ToFセンサーの低解像度と限られた能動照明力のために依然として困難である。
本稿では,1枚のスナップショットからカメラパラメータを推定できる高密度2D/3Dマッチングに基づく自動校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-06T09:57:09Z) - DELTAR: Depth Estimation from a Light-weight ToF Sensor and RGB Image [39.389538555506256]
我々は,高分解能かつ高精度な深度測定機能を備えた軽量ToFセンサを実現する新しい手法であるDELTARを提案する。
DELTARの中核として、深度分布用にカスタマイズされた特徴抽出器と注意に基づくニューラルアーキテクチャを提案し、色とToF領域からの情報を効率的に融合させる。
実験により,提案手法は深度分解能と深度超解像のために設計された既存のフレームワークよりも精度が高く,コモディティレベルのRGB-Dセンサで同等の性能が得られることが示された。
論文 参考訳(メタデータ) (2022-09-27T13:11:37Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。