論文の概要: A Low Memory Footprint Quantized Neural Network for Depth Completion of
Very Sparse Time-of-Flight Depth Maps
- arxiv url: http://arxiv.org/abs/2205.12918v1
- Date: Wed, 25 May 2022 17:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 15:12:10.552487
- Title: A Low Memory Footprint Quantized Neural Network for Depth Completion of
Very Sparse Time-of-Flight Depth Maps
- Title(参考訳): 低メモリフットプリント量子化ニューラルネットワークによる超低飛行時間深度マップの奥行き完了
- Authors: Xiaowen Jiang, Valerio Cambareri, Gianluca Agresti, Cynthia Ifeyinwa
Ugwu, Adriano Simonetto, Fabien Cardinaux, Pietro Zanuttigh
- Abstract要約: 室内3次元知覚のためのToFデータセットのシミュレーションを行った。
本モデルでは,入力前処理と注意深く調整したトレーニングにより,最適深度マップの品質を実現する。
また、重み付けとアクティベーションのための低メモリフットプリントを、混合精度量子化-トレーニング技術により達成する。
- 参考スコア(独自算出の注目度): 14.885472968649937
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sparse active illumination enables precise time-of-flight depth sensing as it
maximizes signal-to-noise ratio for low power budgets. However, depth
completion is required to produce dense depth maps for 3D perception. We
address this task with realistic illumination and sensor resolution constraints
by simulating ToF datasets for indoor 3D perception with challenging sparsity
levels. We propose a quantized convolutional encoder-decoder network for this
task. Our model achieves optimal depth map quality by means of input
pre-processing and carefully tuned training with a geometry-preserving loss
function. We also achieve low memory footprint for weights and activations by
means of mixed precision quantization-at-training techniques. The resulting
quantized models are comparable to the state of the art in terms of quality,
but they require very low GPU times and achieve up to 14-fold memory size
reduction for the weights w.r.t. their floating point counterpart with minimal
impact on quality metrics.
- Abstract(参考訳): スパースアクティブ照明は低消費電力で信号対雑音比を最大化するため、正確な飛行時間深度センシングを可能にする。
しかし,3次元知覚のための深度マップの作成には深度補正が必要である。
本課題は,屋内3次元知覚のためのToFデータセットのシミュレーションにより,現実的な照明とセンサ解像度の制約に対処する。
本稿では,量子化畳み込みエンコーダ・デコーダネットワークを提案する。
本モデルでは,入力前処理と幾何保存損失関数による微調整による最適深度マップ品質を実現する。
また,重みとアクティベーションに対する低メモリフットプリントを混合精度量子化・訓練法を用いて達成する。
その結果得られた量子化モデルは、品質の面では最先端に匹敵するが、非常に低いgpu時間を必要とし、w.r.t.の浮動小数点の重みに対して最大14倍のメモリサイズ削減を達成し、品質メトリクスへの影響を最小限に抑えることができる。
関連論文リスト
- Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Sparse Depth Completion with Semantic Mesh Deformation Optimization [4.03103540543081]
本稿では、RGB画像とスパース深度サンプルを入力とし、完全な深度マップを予測し、最適化後のニューラルネットワークを提案する。
評価結果は,屋内および屋外両方のデータセットにおいて,既存の成果を一貫して上回る結果となった。
論文 参考訳(メタデータ) (2021-12-10T13:01:06Z) - DenseLiDAR: A Real-Time Pseudo Dense Depth Guided Depth Completion
Network [3.1447111126464997]
本稿では,DenseLiDARを提案する。
単純な形態的操作から得られた高密度な擬似深度マップを利用してネットワークを誘導する。
我々のモデルは50Hzのフレームレートで最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-08-28T14:18:29Z) - Unsupervised Depth Completion with Calibrated Backprojection Layers [79.35651668390496]
画像とスパース点雲から深度を推定するディープニューラルネットワークアーキテクチャを提案する。
LIDARや他のレンジセンサーから得られるビデオストリームとそれに対応するスパース点雲と、カメラの固有のキャリブレーションパラメータを用いてトレーニングする。
推論時に、トレーニングに用いるものと異なるカメラの校正を、スパース点雲と1つの画像とともにネットワークへの入力として行う。
論文 参考訳(メタデータ) (2021-08-24T05:41:59Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z) - Deep Depth Estimation from Visual-Inertial SLAM [11.814395824799988]
視覚-慣性同時局在マッピングシステム(VI-SLAM)を用いてスパース深度を計算した症例について検討した。
結果として生じる点雲は密度が低く、ノイズがあり、一様でない空間分布を持つ。
我々は、VI-SLAMから得られる重力推定値を用いて、トレーニングデータセットで一般的な向きに入力画像をワープする。
論文 参考訳(メタデータ) (2020-07-31T21:28:25Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。