論文の概要: RoutedFusion: Learning Real-time Depth Map Fusion
- arxiv url: http://arxiv.org/abs/2001.04388v2
- Date: Fri, 3 Apr 2020 09:15:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-11 23:23:57.760583
- Title: RoutedFusion: Learning Real-time Depth Map Fusion
- Title(参考訳): RoutedFusion: リアルタイム深度マップの融合学習
- Authors: Silvan Weder, Johannes L. Sch\"onberger, Marc Pollefeys, Martin R.
Oswald
- Abstract要約: 深度マップ融合のための新しいリアルタイム能動機械学習手法を提案する。
本稿では,通常の核融合エラーを考慮に入れた非線形更新を予測できるニューラルネットワークを提案する。
本ネットワークは2次元深度ルーティングネットワークと3次元深度融合ネットワークから構成されており,センサ固有のノイズや外れ値の処理を効率的に行う。
- 参考スコア(独自算出の注目度): 73.0378509030908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The efficient fusion of depth maps is a key part of most state-of-the-art 3D
reconstruction methods. Besides requiring high accuracy, these depth fusion
methods need to be scalable and real-time capable. To this end, we present a
novel real-time capable machine learning-based method for depth map fusion.
Similar to the seminal depth map fusion approach by Curless and Levoy, we only
update a local group of voxels to ensure real-time capability. Instead of a
simple linear fusion of depth information, we propose a neural network that
predicts non-linear updates to better account for typical fusion errors. Our
network is composed of a 2D depth routing network and a 3D depth fusion network
which efficiently handle sensor-specific noise and outliers. This is especially
useful for surface edges and thin objects for which the original approach
suffers from thickening artifacts. Our method outperforms the traditional
fusion approach and related learned approaches on both synthetic and real data.
We demonstrate the performance of our method in reconstructing fine geometric
details from noise and outlier contaminated data on various scenes.
- Abstract(参考訳): 深度マップの効率的な融合は、最先端の3d再構成法の主要な部分である。
高い精度を必要とするだけでなく、これらの深度融合法はスケーラブルでリアルタイムに実行可能である必要がある。
そこで本研究では,新しいリアルタイム機械学習による深層地図融合手法を提案する。
curlessとlevoyによるseminal depth map fusionアプローチと同様に、リアルタイム機能を保証するためにvoxelのローカルグループのみを更新する。
深度情報の単純な線形融合の代わりに、通常の融合エラーを考慮に入れた非線形更新を予測するニューラルネットワークを提案する。
本ネットワークは,センサ固有のノイズや異常を効率的に処理する2次元深度ルーティングネットワークと3次元深度融合ネットワークで構成されている。
これは、もともとのアプローチがアーティファクトの厚みに苦しむ表面縁や薄い物体に特に有用である。
本手法は,合成データと実データの両方において,従来の融合手法と関連する学習手法に勝る。
本手法は,様々な場面におけるノイズや異常値から,微細な幾何学的詳細を再構成する性能を示す。
関連論文リスト
- Multi-resolution Monocular Depth Map Fusion by Self-supervised
Gradient-based Composition [14.246972408737987]
推定の利点を多分解能入力と組み合わせた新しい深度マップ融合モジュールを提案する。
我々の軽量深度核融合は1ショットでリアルタイムに動作し、最先端の深度核融合法よりも80倍高速である。
論文 参考訳(メタデータ) (2022-12-03T05:13:50Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - A Real-Time Online Learning Framework for Joint 3D Reconstruction and
Semantic Segmentation of Indoor Scenes [87.74952229507096]
本稿では,屋内シーンの3次元構造とセマンティックラベルを協調的に復元するリアルタイムオンライン視覚フレームワークを提案する。
列車時、ノイズの多い深度マップ、カメラ軌跡、および2Dセマンティックラベルを与えられたニューラルネットワークは、シーン空間に適切なセマンティックラベルでフレームの奥行きを融合させることを学習する。
論文 参考訳(メタデータ) (2021-08-11T14:29:01Z) - Volumetric Propagation Network: Stereo-LiDAR Fusion for Long-Range Depth
Estimation [81.08111209632501]
長距離深度推定のための幾何認識型ステレオLiDAR融合ネットワークを提案する。
ステレオ画像の対応を統一した3Dボリューム空間で導くためのキューとして、スパースで正確な点群を活用します。
我々のネットワークは,KITTIおよびVirtual-KITTIデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-03-24T03:24:46Z) - NeuralFusion: Online Depth Fusion in Latent Space [77.59420353185355]
潜在特徴空間における深度マップアグリゲーションを学習する新しいオンライン深度マップ融合手法を提案する。
提案手法は,高騒音レベルを処理し,特に測光ステレオベース深度マップに共通する粗悪なアウトレージに対処できる。
論文 参考訳(メタデータ) (2020-11-30T13:50:59Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。