論文の概要: Select-and-Combine (SAC): A Novel Multi-Stereo Depth Fusion Algorithm
for Point Cloud Generation via Efficient Local Markov Netlets
- arxiv url: http://arxiv.org/abs/2308.12138v1
- Date: Wed, 23 Aug 2023 13:51:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:07:56.523821
- Title: Select-and-Combine (SAC): A Novel Multi-Stereo Depth Fusion Algorithm
for Point Cloud Generation via Efficient Local Markov Netlets
- Title(参考訳): SAC(Select-and-Combine):効率的な局所マルコフネットレットによるポイントクラウド生成のための新しいマルチステレオ深さ融合アルゴリズム
- Authors: Mostafa Elhashash and Rongjun Qin
- Abstract要約: 本稿では,複数の深度マップから点を数値的に分離する代わりに,点ごとの最良の深度マップを選択する新しい深度融合パラダイムを提案する。
提案手法は, 精度と完全性の両方を考慮したF1スコアを2.07%向上させることにより, 既存の深度融合法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 6.080047833147669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many practical systems for image-based surface reconstruction employ a
stereo/multi-stereo paradigm, due to its ability to scale for large scenes and
its ease of implementation for out-of-core operations. In this process,
multiple and abundant depth maps from stereo matching must be combined and
fused into a single, consistent, and clean point cloud. However, the noises and
outliers caused by stereo matching and the heterogenous geometric errors of the
poses present a challenge for existing fusion algorithms, since they mostly
assume Gaussian errors and predict fused results based on data from local
spatial neighborhoods, which may inherit uncertainties from multiple depths
resulting in lowered accuracy. In this paper, we propose a novel depth fusion
paradigm, that instead of numerically fusing points from multiple depth maps,
selects the best depth map per point, and combines them into a single and clean
point cloud. This paradigm, called select-and-combine (SAC), is achieved
through modeling the point level fusion using local Markov Netlets, a
micro-network over point across neighboring views for depth/view selection,
followed by a Netlets collapse process for point combination. The Markov
Netlets are optimized such that they can inherently leverage spatial
consistencies among depth maps of neighboring views, thus they can address
errors beyond Gaussian ones. Our experiment results show that our approach
outperforms existing depth fusion approaches by increasing the F1 score that
considers both accuracy and completeness by 2.07% compared to the best existing
method. Finally, our approach generates clearer point clouds that are 18% less
redundant while with a higher accuracy before fusion
- Abstract(参考訳): イメージベース表面再構成のための多くの実用的なシステムは、大規模シーンのスケール能力とコア外操作の実装が容易であるため、ステレオ/マルチステレオパラダイムを採用している。
このプロセスでは、ステレオマッチングによる複数かつ豊富な深度マップを結合し、単一で一貫性のあるクリーンポイントクラウドに融合する必要がある。
しかし,ステレオマッチングやポーズの不均一な幾何学的誤差に起因するノイズや外れは,主にガウス誤差を仮定し,局所的な空間的近傍からのデータに基づいて融合結果を予測し,複数の深さから不確かさを継承し,精度を低下させるため,既存の融合アルゴリズムの課題となる。
本稿では,複数の深度マップから点を数値的に融合させる代わりに,各点あたりの最良の深度マップを選択し,それらを単一かつクリーンな点クラウドに結合する,新しい深度融合パラダイムを提案する。
このパラダイムはselect-and-combine(sac)と呼ばれ、ローカルのmarkov netletsを使ってポイントレベルの融合をモデル化することで実現されている。
マルコフネットレットは、隣り合うビューの深度マップ間の空間的構成を本質的に活用できるように最適化されており、ガウス的ビューを超えるエラーに対処することができる。
提案手法は,既存手法と比較して精度と完全性の両方を考慮したF1スコアを2.07%向上させることにより,既存の深度融合法よりも優れていることを示す。
最後に、我々のアプローチは、融合前に高い精度で、18%の冗長性の低いクリアポイント雲を生成する。
関連論文リスト
- Multiway Point Cloud Mosaicking with Diffusion and Global Optimization [74.3802812773891]
マルチウェイポイントクラウドモザイクのための新しいフレームワーク(水曜日)を紹介する。
我々のアプローチの核心は、重複を識別し、注意点を洗練する学習されたペアワイズ登録アルゴリズムODINである。
4つの多種多様な大規模データセットを用いて、我々の手法は、全てのベンチマークにおいて大きなマージンで、最先端のペアとローテーションの登録結果を比較した。
論文 参考訳(メタデータ) (2024-03-30T17:29:13Z) - Arbitrary-Scale Point Cloud Upsampling by Voxel-Based Network with
Latent Geometric-Consistent Learning [52.825441454264585]
Voxel-based Network (textbfPU-VoxelNet) を用いた任意のスケールのクラウド・アップサンプリング・フレームワークを提案する。
ボクセル表現から継承された完全性と規則性により、ボクセルベースのネットワークは3次元表面を近似する事前定義されたグリッド空間を提供することができる。
密度誘導グリッド再サンプリング法を開発し、高忠実度点を生成するとともに、サンプリング出力を効果的に回避する。
論文 参考訳(メタデータ) (2024-03-08T07:31:14Z) - CMG-Net: Robust Normal Estimation for Point Clouds via Chamfer Normal
Distance and Multi-scale Geometry [23.86650228464599]
この研究は、点雲から正規度を推定するための正確で堅牢な方法を示す。
まず,この問題に対処するため,シャンファー正規距離(Chamfer Normal Distance)と呼ばれる新しい尺度を提案する。
マルチスケールな局所的特徴集約と階層的幾何情報融合を含む革新的なアーキテクチャを考案する。
論文 参考訳(メタデータ) (2023-12-14T17:23:16Z) - HybridFusion: LiDAR and Vision Cross-Source Point Cloud Fusion [15.94976936555104]
我々はHybridFusionと呼ばれるクロスソース点雲融合アルゴリズムを提案する。
アウトドアの大きなシーンでは、異なる視角から、ソース間の密集点雲を登録することができる。
提案手法は,定性的,定量的な実験を通じて総合的に評価される。
論文 参考訳(メタデータ) (2023-04-10T10:54:54Z) - Rethinking Spatial Invariance of Convolutional Networks for Object
Counting [119.83017534355842]
局所連結ガウス核を用いて元の畳み込みフィルタを置き換え、密度写像の空間位置を推定する。
従来の研究から着想を得て,大規模なガウス畳み込みの近似を好意的に実装するために,翻訳不変性を伴う低ランク近似を提案する。
提案手法は,他の最先端手法を著しく上回り,物体の空間的位置の有望な学習を実現する。
論文 参考訳(メタデータ) (2022-06-10T17:51:25Z) - Differentiable Convolution Search for Point Cloud Processing [114.66038862207118]
本稿では,点雲上での新しい差分畳み込み探索パラダイムを提案する。
純粋にデータ駆動型であり、幾何学的形状モデリングに適した畳み込みのグループを自動生成することができる。
また,内部畳み込みと外部アーキテクチャの同時探索のための共同最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-29T14:42:03Z) - Monocular Depth Estimation Primed by Salient Point Detection and
Normalized Hessian Loss [43.950140695759764]
本稿では,単眼深度推定のための高精度で軽量なフレームワークを提案する。
深度方向のスケーリングとせん断に不変な正規化ヘッセン損失項を導入し,精度を著しく向上させることを示した。
提案手法は,NYU-Depth-v2 と KITTI の3.1-38.4 倍小さいモデルを用いて,ベースライン手法よりもパラメータ数が多い場合の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-08-25T07:51:09Z) - Point Cloud Upsampling via Disentangled Refinement [86.3641957163818]
3Dスキャンによって生成された点雲は、しばしばスパース、非均一、ノイズである。
近年のアップサンプリング手法は, 分布均一性と近接場を両立させながら, 密度の高い点集合を生成することを目的としている。
2つのカスケードサブネットワーク、高密度ジェネレータ、空間精錬器を定式化する。
論文 参考訳(メタデータ) (2021-06-09T02:58:42Z) - RPVNet: A Deep and Efficient Range-Point-Voxel Fusion Network for LiDAR
Point Cloud Segmentation [28.494690309193068]
RPVNetと呼ばれる、新しいレンジポイント・ボクセル融合ネットワークを提案する。
このネットワークでは,これら3つの視点を相互に相互に相互作用する深層融合フレームワークを考案する。
この効率的な相互作用と比較的低いボクセル解像度を利用することで、より効率的であることが証明された。
論文 参考訳(メタデータ) (2021-03-24T04:24:12Z) - RoutedFusion: Learning Real-time Depth Map Fusion [73.0378509030908]
深度マップ融合のための新しいリアルタイム能動機械学習手法を提案する。
本稿では,通常の核融合エラーを考慮に入れた非線形更新を予測できるニューラルネットワークを提案する。
本ネットワークは2次元深度ルーティングネットワークと3次元深度融合ネットワークから構成されており,センサ固有のノイズや外れ値の処理を効率的に行う。
論文 参考訳(メタデータ) (2020-01-13T16:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。