論文の概要: RGB-D Mapping and Tracking in a Plenoxel Radiance Field
- arxiv url: http://arxiv.org/abs/2307.03404v1
- Date: Fri, 7 Jul 2023 06:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 13:18:48.782935
- Title: RGB-D Mapping and Tracking in a Plenoxel Radiance Field
- Title(参考訳): プレノッセル放射域におけるrgb-dマッピングと追跡
- Authors: Andreas L. Teigen, Yeonsoo Park, Annette Stahl, Rudolf Mester
- Abstract要約: ビュー合成モデルと3次元再構成モデルの間に重要な相違点を示す。
また、一般的な外向きのシーンにおける正確な幾何学をモデル化するために、奥行きセンサが不可欠である理由についてもコメントする。
- 参考スコア(独自算出の注目度): 7.37907896341367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building on the success of Neural Radiance Fields (NeRFs), recent years have
seen significant advances in the domain of novel view synthesis. These models
capture the scene's volumetric radiance field, creating highly convincing dense
photorealistic models through the use of simple, differentiable rendering
equations. Despite their popularity, these algorithms suffer from severe
ambiguities in visual data inherent to the RGB sensor, which means that
although images generated with view synthesis can visually appear very
believable, the underlying 3D model will often be wrong. This considerably
limits the usefulness of these models in practical applications like Robotics
and Extended Reality (XR), where an accurate dense 3D reconstruction otherwise
would be of significant value. In this technical report, we present the vital
differences between view synthesis models and 3D reconstruction models. We also
comment on why a depth sensor is essential for modeling accurate geometry in
general outward-facing scenes using the current paradigm of novel view
synthesis methods. Focusing on the structure-from-motion task, we practically
demonstrate this need by extending the Plenoxel radiance field model:
Presenting an analytical differential approach for dense mapping and tracking
with radiance fields based on RGB-D data without a neural network. Our method
achieves state-of-the-art results in both the mapping and tracking tasks while
also being faster than competing neural network-based approaches.
- Abstract(参考訳): 近年,Neural Radiance Fields (NeRFs) の成功に基づいて,新しい視点合成の分野において大きな進歩を遂げている。
これらのモデルはシーンの体積放射場を捉え、単純で微分可能なレンダリング方程式を用いて高密度の高密度フォトリアリスティックモデルを生成する。
その人気にもかかわらず、これらのアルゴリズムはRGBセンサー固有の視覚データの曖昧さに悩まされており、ビュー合成によって生成された画像は、視覚的に非常に信頼できるように見えるが、基礎となる3Dモデルは、しばしば間違っている。
これにより、ロボティクスや拡張現実(XR)のような実用的応用において、正確な3D再構成が重要な意味を持つようなモデルの有用性が大幅に制限される。
本報告では,ビュー合成モデルと3次元再構成モデルとの重要な相違点について述べる。
また,新しい視点合成手法のパラダイムを用いて,外向きシーンの正確な形状のモデル化に奥行きセンサが不可欠である理由について解説する。
ニューラルネットワークを用いず,rgb-dデータに基づく放射能場を用いた高密度マッピングと追跡のための解析的微分アプローチを提示する。
提案手法は,従来のニューラルネットワーク手法よりも高速でありながら,マッピングタスクとトラッキングタスクの両方において最先端の結果が得られる。
関連論文リスト
- DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - Feature 3DGS: Supercharging 3D Gaussian Splatting to Enable Distilled Feature Fields [54.482261428543985]
ニューラル・ラジアンス・フィールドを使用する手法は、新しいビュー合成のような従来のタスクに汎用的である。
3次元ガウシアンスプラッティングは, 実時間ラディアンス場レンダリングにおける最先端の性能を示した。
この問題を効果的に回避するために,アーキテクチャとトレーニングの変更を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:46:30Z) - NSLF-OL: Online Learning of Neural Surface Light Fields alongside
Real-time Incremental 3D Reconstruction [0.76146285961466]
そこで本研究では,視線方向の小さな方向に対応できるニューラルサーフェス光場モデルを提案する。
我々のモデルは、リアルタイムな3次元再構成の他に、シーケンシャルなデータストリームを共有入力として、ニューラルネットワーク光場(NSLF)をオンラインで学習する。
オンライントレーニングに加えて、可視化のためにデータストリームを完了した後のリアルタイムレンダリングも提供する。
論文 参考訳(メタデータ) (2023-04-29T15:41:15Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - 3D-aware Image Synthesis via Learning Structural and Textural
Representations [39.681030539374994]
生成モデルを作成することは、2D画像空間と3D物理世界を橋渡しするが、まだ難しい。
近年、GAN(Generative Adversarial Network)とNeRF(Neural Radiance Field)という3次元座標をピクセル値にマッピングする手法が試みられている。
本稿では,構造表現とテクスチャ表現を明示的に学習することで,高忠実度3次元画像合成のための新しいフレームワーク,VolumeGANを提案する。
論文 参考訳(メタデータ) (2021-12-20T18:59:40Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。