論文の概要: Monocular Online Reconstruction with Enhanced Detail Preservation
- arxiv url: http://arxiv.org/abs/2505.07887v1
- Date: Sun, 11 May 2025 01:49:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.255832
- Title: Monocular Online Reconstruction with Enhanced Detail Preservation
- Title(参考訳): 深部保存を増強した単眼オンライン再構築
- Authors: Songyin Wu, Zhaoyang Lv, Yufeng Zhu, Duncan Frost, Zhengqin Li, Ling-Qi Yan, Carl Ren, Richard Newcombe, Zhao Dong,
- Abstract要約: モノクロ画像ストリームからの光写実的細部再構成のためのオンライン3Dガウス型高密度マッピングフレームワークを提案する。
提案手法は, 深度マップに依存しないガウス分布と, 局所的, グローバル的整合性の確保という, モノラルなオンライン再構築における2つの課題に対処する。
最先端のRGB-D法やRGB-D法と比較して,本フレームワークは高い計算効率で再現性の向上を実現している。
- 参考スコア(独自算出の注目度): 17.957667390561276
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose an online 3D Gaussian-based dense mapping framework for photorealistic details reconstruction from a monocular image stream. Our approach addresses two key challenges in monocular online reconstruction: distributing Gaussians without relying on depth maps and ensuring both local and global consistency in the reconstructed maps. To achieve this, we introduce two key modules: the Hierarchical Gaussian Management Module for effective Gaussian distribution and the Global Consistency Optimization Module for maintaining alignment and coherence at all scales. In addition, we present the Multi-level Occupancy Hash Voxels (MOHV), a structure that regularizes Gaussians for capturing details across multiple levels of granularity. MOHV ensures accurate reconstruction of both fine and coarse geometries and textures, preserving intricate details while maintaining overall structural integrity. Compared to state-of-the-art RGB-only and even RGB-D methods, our framework achieves superior reconstruction quality with high computational efficiency. Moreover, it integrates seamlessly with various tracking systems, ensuring generality and scalability.
- Abstract(参考訳): モノクロ画像ストリームからの光写実的細部再構成のためのオンライン3Dガウス型高密度マッピングフレームワークを提案する。
提案手法は, 深度マップに依存しないガウス分布と, 局所的, グローバル的整合性の確保という, モノラルなオンライン再構築における2つの課題に対処する。
これを実現するために,効率的なガウス分布のための階層型ガウス管理モジュールと,すべてのスケールにおけるアライメントとコヒーレンスを維持するためのグローバル一貫性最適化モジュールの2つの重要なモジュールを紹介した。
さらに,多段階のHash Voxels (MOHV) について述べる。
MOHVは、微細かつ粗い地形とテクスチャの両方の正確な再構築を保証し、全体的な構造的整合性を維持しながら複雑な詳細を保存する。
最先端のRGB-D法やRGB-D法と比較して,本フレームワークは高い計算効率で再現性の向上を実現している。
さらに、様々なトラッキングシステムとシームレスに統合し、汎用性とスケーラビリティを確保する。
関連論文リスト
- Evolving High-Quality Rendering and Reconstruction in a Unified Framework with Contribution-Adaptive Regularization [27.509109317973817]
3D Gaussian Splatting (3DGS)は、高品質なレンダリングと高速な推論速度で注目されている。
従来の手法は主に幾何学的正則化に焦点を当てており、プリミティブベースのフレームワークやデュアルモデルフレームワークを含む一般的なアプローチがある。
本稿では,高画質表面再構成を実現するために,適応正規化を利用した統一モデルであるCarGSを提案する。
論文 参考訳(メタデータ) (2025-03-02T12:51:38Z) - GBR: Generative Bundle Refinement for High-fidelity Gaussian Splatting and Meshing [27.747748706297497]
GBR(Generative Bundle Refinement)は、4-6の入力ビューのみを用いた高忠実なガウススプラッティングとメッシュ化のための手法である。
GBRは、幾何学的精度を高めるために神経束調整モジュールと、幾何学的忠実性を改善するために生成深度改善モジュールを統合している。
GBRは、大規模な現実世界のシーンを再構築し、レンダリングする能力を示している。
論文 参考訳(メタデータ) (2024-12-08T12:00:25Z) - HI-SLAM2: Geometry-Aware Gaussian SLAM for Fast Monocular Scene Reconstruction [38.47566815670662]
HI-SLAM2は、RGB入力のみを用いて高速かつ正確な単眼シーン再構築を実現する幾何学的ガウスSLAMシステムである。
既存のニューラルSLAM法よりも大幅に改善され,RGB-D法を上回り,再現性もレンダリング性も向上した。
論文 参考訳(メタデータ) (2024-11-27T01:39:21Z) - Double-Shot 3D Shape Measurement with a Dual-Branch Network for Structured Light Projection Profilometry [14.749887303860717]
我々は、異なる構造光(SL)変調を処理するために、デュアルブランチ畳み込みニューラルネットワーク(CNN)-トランスフォーマーネットワーク(PDCNet)を提案する。
PDCNet内では、Transformerブランチを使用してフリンジイメージのグローバルな認識をキャプチャし、CNNブランチはスペックルイメージのローカル詳細を収集するように設計されている。
提案手法は, 自己生成データセット上で高精度な結果が得られる一方で, フランジオーダーの曖昧さを低減できる。
論文 参考訳(メタデータ) (2024-07-19T10:49:26Z) - Splat-SLAM: Globally Optimized RGB-only SLAM with 3D Gaussians [87.48403838439391]
3D Splattingは、RGBのみの高密度SLAMの幾何学と外観の強力な表現として登場した。
本稿では,高密度な3次元ガウス写像表現を持つRGBのみのSLAMシステムを提案する。
Replica、TUM-RGBD、ScanNetのデータセットに対する実験は、グローバルに最適化された3Dガウスの有効性を示している。
論文 参考訳(メタデータ) (2024-05-26T12:26:54Z) - Efficient Real-world Image Super-Resolution Via Adaptive Directional Gradient Convolution [80.85121353651554]
畳み込みカーネル内でのカーネル単位の微分演算を導入し、学習可能な方向勾配畳み込みを開発する。
これらの畳み込みは、新しい線形重み付け機構と平行に統合され、適応方向勾配畳み込み(DGConv)を形成する。
さらに,適応情報相互作用ブロック(AIIBlock)を設計し,テクスチャとコントラストの強化のバランスをとるとともに,相互依存性を慎重に検討し,単純な積み重ねによるリアルSRのためのDGPNetを作成する。
論文 参考訳(メタデータ) (2024-05-11T14:21:40Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - Dynamic Voxel Grid Optimization for High-Fidelity RGB-D Supervised
Surface Reconstruction [130.84162691963536]
高忠実度3次元表面再構成のための新しい動的グリッド最適化手法を提案する。
グリッドを動的に修正し、より複雑な領域により微細なボクセルを割り当てることで、プロセスを最適化する。
提案手法は, 合成データと実世界のデータの両方を詳細に記述した高品質な3D再構成を実現する。
論文 参考訳(メタデータ) (2023-04-12T22:39:57Z) - Learning Detail-Structure Alternative Optimization for Blind
Super-Resolution [69.11604249813304]
そこで我々は,ブラインドSRに先立ってカーネルを曖昧にすることなく,再帰的な詳細構造代替最適化を実現する,有効かつカーネルフリーなネットワークDSSRを提案する。
DSSRでは、細部構造変調モジュール(DSMM)が構築され、画像の詳細と構造の相互作用と協調を利用する。
本手法は既存の手法に対して最先端の手法を実現する。
論文 参考訳(メタデータ) (2022-12-03T14:44:17Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。