論文の概要: HRBF-Fusion: Accurate 3D reconstruction from RGB-D data using on-the-fly
implicits
- arxiv url: http://arxiv.org/abs/2202.01829v1
- Date: Thu, 3 Feb 2022 20:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 15:05:34.906541
- Title: HRBF-Fusion: Accurate 3D reconstruction from RGB-D data using on-the-fly
implicits
- Title(参考訳): HRBF-Fusion:オンザフライ暗黙を用いたRGB-Dデータからの正確な3D再構成
- Authors: Yabin Xu and Liangliang Nan and Laishui Zhou and Jun Wang and Charlie
C.L. Wang
- Abstract要約: 高忠実度3Dオブジェクトやシーンの再構成は、基本的な研究課題である。
RGB-D融合の最近の進歩は、消費者レベルのRGB-Dカメラから3Dモデルを製造する可能性を示している。
既存のアプローチは、カメラ追跡における誤差の蓄積と再構成における歪みに悩まされている。
- 参考スコア(独自算出の注目度): 11.83399015126983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstruction of high-fidelity 3D objects or scenes is a fundamental
research problem. Recent advances in RGB-D fusion have demonstrated the
potential of producing 3D models from consumer-level RGB-D cameras. However,
due to the discrete nature and limited resolution of their surface
representations (e.g., point- or voxel-based), existing approaches suffer from
the accumulation of errors in camera tracking and distortion in the
reconstruction, which leads to an unsatisfactory 3D reconstruction. In this
paper, we present a method using on-the-fly implicits of Hermite Radial Basis
Functions (HRBFs) as a continuous surface representation for camera tracking in
an existing RGB-D fusion framework. Furthermore, curvature estimation and
confidence evaluation are coherently derived from the inherent surface
properties of the on-the-fly HRBF implicits, which devote to a data fusion with
better quality. We argue that our continuous but on-the-fly surface
representation can effectively mitigate the impact of noise with its robustness
and constrain the reconstruction with inherent surface smoothness when being
compared with discrete representations. Experimental results on various
real-world and synthetic datasets demonstrate that our HRBF-fusion outperforms
the state-of-the-art approaches in terms of tracking robustness and
reconstruction accuracy.
- Abstract(参考訳): 高忠実度3Dオブジェクトやシーンの再構成は、基本的な研究課題である。
RGB-D融合の最近の進歩は、消費者レベルのRGB-Dカメラから3Dモデルを製造する可能性を示している。
しかし、離散的な性質と表面表現の限定的な解像度(例えば、点またはボクセルベース)のため、既存のアプローチは、カメラ追跡における誤差の蓄積と再構成における歪みに悩まされ、不満足な3D再構成につながる。
本稿では,既存のRGB-D融合フレームワークにおいて,Hermite Radial Basis Function (HRBFs) のオンザフライ暗黙を連続表面表現として用いる手法を提案する。
さらに, 曲率推定と信頼性評価は, より高品質なデータ融合に傾注した, オンザフライHRBF暗黙の固有表面特性からコヒーレントに導かれる。
我々は, 連続する面表現は, その頑健さによる騒音の影響を効果的に軽減し, 離散表現と比較した場合, 表面の滑らかさによる再構成を抑制できると主張している。
様々な実世界および合成データセットにおける実験結果から,hrbf-fusionはロバスト性および再構成精度の面で最先端のアプローチよりも優れていることが示された。
関連論文リスト
- AONeuS: A Neural Rendering Framework for Acoustic-Optical Sensor Fusion [26.83067771471808]
水中の知覚と3次元表面の再構築は、建設、セキュリティ、海洋考古学、環境モニタリングにおける幅広い応用において難しい問題である。
本研究は,物理に基づく多モード音響-光学的ニューラルサーフェス再構成フレームワークの開発である。
これらの相補的なモダリティを融合させることで,本フレームワークは,高度に制限されたベースライン上での計測から高精度な高解像度3次元表面を再構築することができる。
論文 参考訳(メタデータ) (2024-02-05T18:59:31Z) - Cheating Depth: Enhancing 3D Surface Anomaly Detection via Depth
Simulation [12.843938169660404]
RGBによる表面異常検出法は大幅に進歩している。
特定の表面異常は、RGBだけでは事実上見えず、3D情報の取り込みが必要である。
産業深度データセット上のRGBバックボーンの再トレーニングは、十分な大規模なデータセットの可用性の制限によって妨げられる。
本稿では,既存のMVTec3D異常検出ベンチマークよりも優れた3DSRによる表面異常検出手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T09:44:21Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid
Representation and Normal Prior Enhancement [53.10080345190996]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - Toward Moir\'e-Free and Detail-Preserving Demosaicking [3.9064624794570593]
3D畳み込みは一般的に神経モデルを破壊するために使用される。
3Dコンボリューションは相補的な情報交換からRGB色スペクトルを暗黙的に阻害することを示す。
浅い3D畳み込みネットワークはモイアのアーティファクトに苦しむが、深い3D畳み込みは過度に滑らかさを引き起こす。
論文 参考訳(メタデータ) (2023-05-15T12:12:29Z) - Looking Through the Glass: Neural Surface Reconstruction Against High
Specular Reflections [72.45512144682554]
暗黙的ニューラルレンダリングに基づく新しい表面再構成フレームワークNeuS-HSRを提案する。
NeuS-HSRでは、物体表面は暗黙の符号付き距離関数としてパラメータ化される。
我々は、NeuS-HSRが、HSRに対する高精度で堅牢なターゲット表面再構成において、最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-18T02:34:58Z) - A Combined Approach Toward Consistent Reconstructions of Indoor Spaces
Based on 6D RGB-D Odometry and KinectFusion [7.503338065129185]
キーポイント抽出により連続したRGB-Dフレーム間の相対的なカメラポーズを求める6次元RGB-Dオドメトリー手法を提案する。
推定されたポーズを、フレーム間相対的なポーズを微調整するKinectFusionアルゴリズムに入力する。
提案アルゴリズムは,ポストプロセッシングのステップを使わずに,利用可能なポリゴンメッシュ(3次元仮想世界を作成するのに非常に適している)を出力する。
論文 参考訳(メタデータ) (2022-12-25T22:52:25Z) - {\phi}-SfT: Shape-from-Template with a Physics-Based Deformation Model [69.27632025495512]
Shape-from-Template (SfT) 法では、単一の単眼RGBカメラから3次元表面の変形を推定する。
本稿では,物理シミュレーションによる2次元観察を解説する新しいSfT手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T17:59:57Z) - OcclusionFusion: Occlusion-aware Motion Estimation for Real-time Dynamic
3D Reconstruction [14.130915525776055]
RGBDに基づくリアルタイム動的3次元再構成は、フレーム間運動推定の不正確さに悩まされる。
オクルージョンフュージョン(OcclusionFusion, OcclusionFusion)は、オクルージョンを意識した3次元運動を計算し、再構成を誘導する手法である。
本手法は,既存の単一ビューベースリアルタイム手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-03-15T15:09:01Z) - Total Scale: Face-to-Body Detail Reconstruction from Sparse RGBD Sensors [52.38220261632204]
PIFuをベースとした再建術では, 顔面の平坦化が頻発する。
再建した顔のディテールの質を高めるために,2段階のPIFu表現を提案する。
顔の鮮明な細部と身体形状の変形におけるアプローチの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2021-12-03T18:46:49Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。