論文の概要: Robust super-resolution depth imaging via a multi-feature fusion deep
network
- arxiv url: http://arxiv.org/abs/2011.11444v2
- Date: Mon, 1 Feb 2021 11:25:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 06:24:23.373255
- Title: Robust super-resolution depth imaging via a multi-feature fusion deep
network
- Title(参考訳): 多機能核融合深部ネットワークによるロバスト超解像深度イメージング
- Authors: Alice Ruget, Stephen McLaughlin, Robert K. Henderson, Istvan Gyongy,
Abderrahim Halimi and Jonathan Leach
- Abstract要約: 単一光子感度検出器(SPAD)アレイによる光検出・測光(LIDAR)は、高フレームレートで深度画像の取得を可能にする新興技術である。
我々は、カメラのヒストグラムデータから抽出できる複数の特徴を活用するために構築されたディープネットワークを開発する。
ネットワークを様々な3Dデータに適用し,デノナイジングと4倍の解像度の深度向上を実証する。
- 参考スコア(独自算出の注目度): 2.351601888896043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Three-dimensional imaging plays an important role in imaging applications
where it is necessary to record depth. The number of applications that use
depth imaging is increasing rapidly, and examples include self-driving
autonomous vehicles and auto-focus assist on smartphone cameras. Light
detection and ranging (LIDAR) via single-photon sensitive detector (SPAD)
arrays is an emerging technology that enables the acquisition of depth images
at high frame rates. However, the spatial resolution of this technology is
typically low in comparison to the intensity images recorded by conventional
cameras. To increase the native resolution of depth images from a SPAD camera,
we develop a deep network built specifically to take advantage of the multiple
features that can be extracted from a camera's histogram data. The network is
designed for a SPAD camera operating in a dual-mode such that it captures
alternate low resolution depth and high resolution intensity images at high
frame rates, thus the system does not require any additional sensor to provide
intensity images. The network then uses the intensity images and multiple
features extracted from downsampled histograms to guide the upsampling of the
depth. Our network provides significant image resolution enhancement and image
denoising across a wide range of signal-to-noise ratios and photon levels. We
apply the network to a range of 3D data, demonstrating denoising and a
four-fold resolution enhancement of depth.
- Abstract(参考訳): 3次元イメージングは、深度を記録する必要がある画像アプリケーションにおいて重要な役割を果たす。
深度イメージングを利用するアプリケーションの数は急速に増えており、例えば自動運転車やスマートフォンカメラのオートフォーカスアシストなどがある。
単一光子感度検出器(SPAD)アレイによる光検出・測光(LIDAR)は、高フレームレートで深度画像の取得を可能にする新興技術である。
しかし、この技術の空間分解能は、通常、従来のカメラで記録された強度画像と比較して低い。
本研究では,SPADカメラからの奥行き画像のネイティブ解像度を高めるために,カメラのヒストグラムデータから抽出できる複数の特徴を活かしたディープネットワークを構築した。
ネットワークはデュアルモードで動作するSPADカメラ用に設計されており、高フレームレートで低解像度深度と高解像度の高解像度の画像を交互に撮影する。
ネットワークは、深度の上昇を導くために、下地ヒストグラムから抽出された強度画像と複数の特徴を使用する。
我々のネットワークは、幅広い信号対雑音比と光子レベルにまたがる画像分解能の大幅な向上と画像デノイングを提供する。
ネットワークを様々な3Dデータに適用し,デノナイジングと4倍の解像度の深度向上を実証する。
関連論文リスト
- Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - Depth Map Denoising Network and Lightweight Fusion Network for Enhanced
3D Face Recognition [61.27785140017464]
本稿では,ノイズを低減するために,DIIF(Denoising Implicit Image Function)に基づくDMDNet(Depth Map Denoising Network)を提案する。
さらに,光深度と標準核融合ネットワーク(LDNFNet)と呼ばれる強力な認識ネットワークを設計し,異なるモード間の特徴と相補的特徴を学習する。
論文 参考訳(メタデータ) (2024-01-01T10:46:42Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Video super-resolution for single-photon LIDAR [0.0]
3D Time-of-Flight (ToF)イメージセンサーは、自動運転車、拡張現実(AR)、ロボット工学などの用途で広く利用されている。
本稿では,合成深度シーケンスを用いて3次元畳み込みニューラルネットワーク(CNN)を学習し,x4深度データを復調・アップスケーリングする。
GPUアクセラレーションでは、フレームは毎秒30フレーム以上で処理され、障害物回避に必要な低遅延イメージングに適している。
論文 参考訳(メタデータ) (2022-10-19T11:33:29Z) - Simulating single-photon detector array sensors for depth imaging [2.497104612216142]
単光雪崩検知器(SPAD)アレイは急速に進歩する技術である。
本研究では,SPADアレイを用いた深度イメージングの基本的な限界を確立するための,頑健で簡単な数値計算手法を確立する。
論文 参考訳(メタデータ) (2022-10-07T13:23:34Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Self-supervised Depth Denoising Using Lower- and Higher-quality RGB-D
sensors [8.34403807284064]
そこで本研究では,低品質センサからの奥行きを識別し,精巧化するための自己教師型深度Denoisingアプローチを提案する。
我々は、不整合低品質カメラと高画質カメラの同時RGB-Dシーケンスを記録し、時間的・空間的に配列を整列する難題を解決する。
次に、より深いニューラルネットワークを学習し、一致した高品質なデータを監視信号のソースとして使用して、低品質な深度を識別する。
論文 参考訳(メタデータ) (2020-09-10T11:18:11Z) - Quanta Burst Photography [15.722085082004934]
単光子アバランシェダイオード(SPADs)は、個々の入射光を検出できる新しいセンサー技術である。
本研究では,SPCを受動撮像装置として活用した量子バースト撮影技術について述べる。
論文 参考訳(メタデータ) (2020-06-21T16:20:29Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。