論文の概要: RePose-NeRF: Robust Radiance Fields for Mesh Reconstruction under Noisy Camera Poses
- arxiv url: http://arxiv.org/abs/2511.08545v1
- Date: Wed, 12 Nov 2025 02:04:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.859892
- Title: RePose-NeRF: Robust Radiance Fields for Mesh Reconstruction under Noisy Camera Poses
- Title(参考訳): Repose-NeRF:ノイズカメラを用いたメッシュ再構成のためのロバスト放射場
- Authors: Sriram Srinivasan, Gautam Ramachandra,
- Abstract要約: マルチビュー画像から直接高品質で編集可能な3Dメッシュを再構築する堅牢なフレームワークを提案する。
我々のアプローチは、細かな幾何学的ディテールと外観をキャプチャする暗黙のシーン表現を学習しながら、カメラのポーズを共同で洗練する。
- 参考スコア(独自算出の注目度): 0.5328562411561214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate 3D reconstruction from multi-view images is essential for downstream robotic tasks such as navigation, manipulation, and environment understanding. However, obtaining precise camera poses in real-world settings remains challenging, even when calibration parameters are known. This limits the practicality of existing NeRF-based methods that rely heavily on accurate extrinsic estimates. Furthermore, their implicit volumetric representations differ significantly from the widely adopted polygonal meshes, making rendering and manipulation inefficient in standard 3D software. In this work, we propose a robust framework that reconstructs high-quality, editable 3D meshes directly from multi-view images with noisy extrinsic parameters. Our approach jointly refines camera poses while learning an implicit scene representation that captures fine geometric detail and photorealistic appearance. The resulting meshes are compatible with common 3D graphics and robotics tools, enabling efficient downstream use. Experiments on standard benchmarks demonstrate that our method achieves accurate and robust 3D reconstruction under pose uncertainty, bridging the gap between neural implicit representations and practical robotic applications.
- Abstract(参考訳): 多視点画像からの正確な3D再構成は、ナビゲーション、操作、環境理解といった下流ロボット作業に不可欠である。
しかし、キャリブレーションパラメータが分かっている場合でも、実際の環境で正確なカメラポーズを取得することは困難である。
これにより、正確な外部推定に大きく依存する既存のNeRFベースの手法の実用性が制限される。
さらに、それらの暗黙の容積表現は広く採用されている多角形メッシュとは大きく異なり、標準的な3Dソフトウェアではレンダリングと操作が非効率になる。
本研究では,高画質で編集可能な3Dメッシュを,ノイズのある外部パラメータを持つ多視点画像から直接再構成する頑健なフレームワークを提案する。
我々のアプローチは、細かな幾何学的ディテールとフォトリアリスティックな外観を捉えた暗黙のシーン表現を学習しながら、カメラのポーズを共同で洗練する。
その結果生まれたメッシュは、一般的な3Dグラフィックスやロボティクスツールと互換性があり、下流での効率的な使用を可能にしている。
標準ベンチマーク実験により,ニューラルネットワークの暗黙表現と実用ロボティクスのギャップを埋めて,不確実性を考慮した高精度で堅牢な3次元再構成を実現することができた。
関連論文リスト
- OB3D: A New Dataset for Benchmarking Omnidirectional 3D Reconstruction Using Blender [9.234032241605892]
Omnidirectional Blender 3D (OB3D) は、複数の全方位画像から3次元再構成を進めるための新しい合成データセットである。
OB3DはBlender 3Dプロジェクトから生成される多様で複雑な3Dシーンを特徴としている。
論文 参考訳(メタデータ) (2025-05-26T15:25:29Z) - HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - Incorporating dense metric depth into neural 3D representations for view synthesis and relighting [25.028859317188395]
ロボット応用では、密度の深い距離の深さをステレオで直接測定することができ、照明を制御できる。
本研究は,ニューラルネットワークによる3次元表現のトレーニングに高密度な距離深度を組み込む手法を実証する。
また、パイプラインに必要なデータを取得し、リライティングとビュー合成の結果を示すために開発されたマルチフラッシュステレオカメラシステムについても論じる。
論文 参考訳(メタデータ) (2024-09-04T20:21:13Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。