論文の概要: HRBF-Fusion: Accurate 3D reconstruction from RGB-D data using on-the-fly
implicits
- arxiv url: http://arxiv.org/abs/2202.01829v1
- Date: Thu, 3 Feb 2022 20:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 15:05:34.906541
- Title: HRBF-Fusion: Accurate 3D reconstruction from RGB-D data using on-the-fly
implicits
- Title(参考訳): HRBF-Fusion:オンザフライ暗黙を用いたRGB-Dデータからの正確な3D再構成
- Authors: Yabin Xu and Liangliang Nan and Laishui Zhou and Jun Wang and Charlie
C.L. Wang
- Abstract要約: 高忠実度3Dオブジェクトやシーンの再構成は、基本的な研究課題である。
RGB-D融合の最近の進歩は、消費者レベルのRGB-Dカメラから3Dモデルを製造する可能性を示している。
既存のアプローチは、カメラ追跡における誤差の蓄積と再構成における歪みに悩まされている。
- 参考スコア(独自算出の注目度): 11.83399015126983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstruction of high-fidelity 3D objects or scenes is a fundamental
research problem. Recent advances in RGB-D fusion have demonstrated the
potential of producing 3D models from consumer-level RGB-D cameras. However,
due to the discrete nature and limited resolution of their surface
representations (e.g., point- or voxel-based), existing approaches suffer from
the accumulation of errors in camera tracking and distortion in the
reconstruction, which leads to an unsatisfactory 3D reconstruction. In this
paper, we present a method using on-the-fly implicits of Hermite Radial Basis
Functions (HRBFs) as a continuous surface representation for camera tracking in
an existing RGB-D fusion framework. Furthermore, curvature estimation and
confidence evaluation are coherently derived from the inherent surface
properties of the on-the-fly HRBF implicits, which devote to a data fusion with
better quality. We argue that our continuous but on-the-fly surface
representation can effectively mitigate the impact of noise with its robustness
and constrain the reconstruction with inherent surface smoothness when being
compared with discrete representations. Experimental results on various
real-world and synthetic datasets demonstrate that our HRBF-fusion outperforms
the state-of-the-art approaches in terms of tracking robustness and
reconstruction accuracy.
- Abstract(参考訳): 高忠実度3Dオブジェクトやシーンの再構成は、基本的な研究課題である。
RGB-D融合の最近の進歩は、消費者レベルのRGB-Dカメラから3Dモデルを製造する可能性を示している。
しかし、離散的な性質と表面表現の限定的な解像度(例えば、点またはボクセルベース)のため、既存のアプローチは、カメラ追跡における誤差の蓄積と再構成における歪みに悩まされ、不満足な3D再構成につながる。
本稿では,既存のRGB-D融合フレームワークにおいて,Hermite Radial Basis Function (HRBFs) のオンザフライ暗黙を連続表面表現として用いる手法を提案する。
さらに, 曲率推定と信頼性評価は, より高品質なデータ融合に傾注した, オンザフライHRBF暗黙の固有表面特性からコヒーレントに導かれる。
我々は, 連続する面表現は, その頑健さによる騒音の影響を効果的に軽減し, 離散表現と比較した場合, 表面の滑らかさによる再構成を抑制できると主張している。
様々な実世界および合成データセットにおける実験結果から,hrbf-fusionはロバスト性および再構成精度の面で最先端のアプローチよりも優れていることが示された。
関連論文リスト
- G2SDF: Surface Reconstruction from Explicit Gaussians with Implicit SDFs [84.07233691641193]
G2SDFはニューラル暗黙の符号付き距離場をガウススプラッティングフレームワークに統合する新しいアプローチである。
G2SDFは, 3DGSの効率を維持しつつ, 従来よりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - GSurf: 3D Reconstruction via Signed Distance Fields with Direct Gaussian Supervision [0.0]
マルチビュー画像からの表面再構成は3次元視覚における中核的な課題である。
近年, ニューラル・レージアンス・フィールド(NeRF)内のサイン付き距離場(SDF)を探索し, 高忠実な表面再構成を実現している。
本稿では,ガウス原始体から直接符号付き距離場を学習する新しいエンドツーエンド手法であるGSurfを紹介する。
GSurfは、VolSDFやNeuSといったニューラルな暗黙的表面法に匹敵する3D再構成品質を提供しながら、高速なトレーニングとレンダリングの速度を達成する。
論文 参考訳(メタデータ) (2024-11-24T05:55:19Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - ANIM: Accurate Neural Implicit Model for Human Reconstruction from a single RGB-D image [40.03212588672639]
ANIMは単視点RGB-D画像から任意の3次元形状を前例のない精度で再構成する新しい手法である。
我々のモデルは、深度情報を活用するためにピクセル整列とボクセル整列の両方の機能から幾何学的詳細を学習する。
実験によると、ANIMはRGB、表面正規、ポイントクラウド、RGB-Dデータを入力として使用する最先端の作業よりも優れている。
論文 参考訳(メタデータ) (2024-03-15T14:45:38Z) - AONeuS: A Neural Rendering Framework for Acoustic-Optical Sensor Fusion [25.32113731681485]
水中の知覚と3次元表面の再構築は、建設、セキュリティ、海洋考古学、環境モニタリングにおける幅広い応用において難しい問題である。
本研究は,物理に基づく多モード音響-光学的ニューラルサーフェス再構成フレームワークの開発である。
これらの相補的なモダリティを融合させることで,本フレームワークは,高度に制限されたベースライン上での計測から高精度な高解像度3次元表面を再構築することができる。
論文 参考訳(メタデータ) (2024-02-05T18:59:31Z) - Ternary-Type Opacity and Hybrid Odometry for RGB NeRF-SLAM [58.736472371951955]
表面を交差する光線上の点を3つの領域(前・前・後・後)に分類する3成分式不透明度モデルを導入する。
これにより、より正確な深度のレンダリングが可能となり、画像ワープ技術の性能が向上する。
TTとHOの統合アプローチは,合成および実世界のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-20T18:03:17Z) - D-SCo: Dual-Stream Conditional Diffusion for Monocular Hand-Held Object Reconstruction [74.49121940466675]
モノクローナルハンドヘルドオブジェクト再構成のためのCentroid-fixed dual-stream conditionalfusionを導入する。
まず、対象のセントロイドがずれることを避けるために、手動制約付きセントロイド固定パラダイムを用いる。
第2に、意味的および幾何学的に手動物体の相互作用をモデル化するための二重ストリームデノイザを導入する。
論文 参考訳(メタデータ) (2023-11-23T20:14:50Z) - Cheating Depth: Enhancing 3D Surface Anomaly Detection via Depth
Simulation [12.843938169660404]
RGBによる表面異常検出法は大幅に進歩している。
特定の表面異常は、RGBだけでは事実上見えず、3D情報の取り込みが必要である。
産業深度データセット上のRGBバックボーンの再トレーニングは、十分な大規模なデータセットの可用性の制限によって妨げられる。
本稿では,既存のMVTec3D異常検出ベンチマークよりも優れた3DSRによる表面異常検出手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T09:44:21Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - Looking Through the Glass: Neural Surface Reconstruction Against High
Specular Reflections [72.45512144682554]
暗黙的ニューラルレンダリングに基づく新しい表面再構成フレームワークNeuS-HSRを提案する。
NeuS-HSRでは、物体表面は暗黙の符号付き距離関数としてパラメータ化される。
我々は、NeuS-HSRが、HSRに対する高精度で堅牢なターゲット表面再構成において、最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-18T02:34:58Z) - A Combined Approach Toward Consistent Reconstructions of Indoor Spaces
Based on 6D RGB-D Odometry and KinectFusion [7.503338065129185]
キーポイント抽出により連続したRGB-Dフレーム間の相対的なカメラポーズを求める6次元RGB-Dオドメトリー手法を提案する。
推定されたポーズを、フレーム間相対的なポーズを微調整するKinectFusionアルゴリズムに入力する。
提案アルゴリズムは,ポストプロセッシングのステップを使わずに,利用可能なポリゴンメッシュ(3次元仮想世界を作成するのに非常に適している)を出力する。
論文 参考訳(メタデータ) (2022-12-25T22:52:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。