論文の概要: Supersampling of Data from Structured-light Scanner with Deep Learning
- arxiv url: http://arxiv.org/abs/2311.07432v2
- Date: Mon, 26 Feb 2024 09:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 00:17:46.824847
- Title: Supersampling of Data from Structured-light Scanner with Deep Learning
- Title(参考訳): 深層学習を用いた構造化光スキャナからのデータのスーパーサンプリング
- Authors: Martin Melicher\v{c}\'ik, Luk\'a\v{s} Gajdo\v{s}ech, Viktor Kocur,
Martin Madaras
- Abstract要約: 2つのディープラーニングモデルFDSRとDKNは、高解像度のデータを扱うように修正される。
得られた高分解能深度マップは定性的および定量的な測定値を用いて評価される。
- 参考スコア(独自算出の注目度): 1.6385815610837167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper focuses on increasing the resolution of depth maps obtained from
3D cameras using structured light technology. Two deep learning models FDSR and
DKN are modified to work with high-resolution data, and data pre-processing
techniques are implemented for stable training. The models are trained on our
custom dataset of 1200 3D scans. The resulting high-resolution depth maps are
evaluated using qualitative and quantitative metrics. The approach for depth
map upsampling offers benefits such as reducing the processing time of a
pipeline by first downsampling a high-resolution depth map, performing various
processing steps at the lower resolution and upsampling the resulting depth map
or increasing the resolution of a point cloud captured in lower resolution by a
cheaper device. The experiments demonstrate that the FDSR model excels in terms
of faster processing time, making it a suitable choice for applications where
speed is crucial. On the other hand, the DKN model provides results with higher
precision, making it more suitable for applications that prioritize accuracy.
- Abstract(参考訳): 本稿では,構造光技術を用いた3次元カメラから得られる深度マップの解像度向上に焦点をあてる。
2つのディープラーニングモデルFDSRとDKNは高解像度のデータを扱うように修正され、安定したトレーニングのためにデータ前処理技術が実装される。
モデルは、1200の3Dスキャンのカスタムデータセットでトレーニングされています。
得られた高分解能深度マップは定性的,定量的に評価される。
ディープマップアップサンプリングのアプローチは、まず高解像度のディープマップをダウンサンプリングすることでパイプラインの処理時間を短縮し、低解像度で様々な処理ステップを実行し、その結果のディープマップをアップサンプリングしたり、より安価なデバイスで低解像度でキャプチャされたポイントクラウドの解像度を増大させることによる利点を提供する。
実験により、FDSRモデルはより高速な処理時間で優れており、速度が重要となるアプリケーションに適していることが示された。
一方、dknモデルは、より精度の高い結果を提供し、精度を優先するアプリケーションに適している。
関連論文リスト
- Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Efficient High-Resolution Deep Learning: A Survey [90.76576712433595]
スマートフォン、衛星、医療機器などの現代の機器のカメラは、非常に高解像度の画像やビデオを撮影することができる。
このような高解像度データは、がん検出、自動道路ナビゲーション、天気予報、監視、農業プロセスの最適化、その他多くの応用のためのディープラーニングモデルによって処理される。
ディープラーニングモデルの直接入力として高解像度の画像とビデオを使用することで、パラメータの多さ、計算コスト、推論レイテンシ、GPUメモリ使用量など、多くの課題が生じる。
文献におけるいくつかの研究は、高解像度データの課題に対処し、ハードウェアの制限に従いながら精度とスピードを改善するために、より良い代替案を提案する。
論文 参考訳(メタデータ) (2022-07-26T17:13:53Z) - RA-Depth: Resolution Adaptive Self-Supervised Monocular Depth Estimation [27.679479140943503]
本研究では,シーン深さのスケール不変性を学習し,自己教師付き単眼深度推定法(RA-Depth)を提案する。
RA-Depthは最先端の性能を達成し、解像度適応の優れた能力を示す。
論文 参考訳(メタデータ) (2022-07-25T08:49:59Z) - A Low Memory Footprint Quantized Neural Network for Depth Completion of
Very Sparse Time-of-Flight Depth Maps [14.885472968649937]
室内3次元知覚のためのToFデータセットのシミュレーションを行った。
本モデルでは,入力前処理と注意深く調整したトレーニングにより,最適深度マップの品質を実現する。
また、重み付けとアクティベーションのための低メモリフットプリントを、混合精度量子化-トレーニング技術により達成する。
論文 参考訳(メタデータ) (2022-05-25T17:11:31Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Sparse Depth Completion with Semantic Mesh Deformation Optimization [4.03103540543081]
本稿では、RGB画像とスパース深度サンプルを入力とし、完全な深度マップを予測し、最適化後のニューラルネットワークを提案する。
評価結果は,屋内および屋外両方のデータセットにおいて,既存の成果を一貫して上回る結果となった。
論文 参考訳(メタデータ) (2021-12-10T13:01:06Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - Towards Unpaired Depth Enhancement and Super-Resolution in the Wild [121.96527719530305]
最先端のデータ駆動による深度マップの超解像法は、同じシーンの低解像度と高解像度の深度マップの登録ペアに依存している。
未経験データからの学習に基づく深度マップの強化について考察する。
論文 参考訳(メタデータ) (2021-05-25T16:19:16Z) - A new public Alsat-2B dataset for single-image super-resolution [1.284647943889634]
本稿では,低空間解像度画像(10m, 2.5m)と高空間解像度画像(10m, 2.5m)の新たなリモートセンシングデータセット(Alsat2B)を提案する。
パンシャープ化により高分解能画像を得る。
その結果,提案手法は有望であり,データセットの課題を強調していることがわかった。
論文 参考訳(メタデータ) (2021-03-21T10:47:38Z) - Learning When and Where to Zoom with Deep Reinforcement Learning [101.79271767464947]
そこで本稿では,高解像度のデータをペアで,安価で低解像度の画像に対していつ,どこで使用・取得するかを識別する強化学習手法を提案する。
我々は、CIFAR10、CIFAR100、ImageNet、fMoWデータセット上で実験を行い、全高解像度画像を使用するモデルと同等の精度を維持しながら、非常に少ない高解像度データを使用する。
論文 参考訳(メタデータ) (2020-03-01T07:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。