論文の概要: OmniVoxel: A Fast and Precise Reconstruction Method of Omnidirectional
Neural Radiance Field
- arxiv url: http://arxiv.org/abs/2208.06335v1
- Date: Fri, 12 Aug 2022 15:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:30:07.530932
- Title: OmniVoxel: A Fast and Precise Reconstruction Method of Omnidirectional
Neural Radiance Field
- Title(参考訳): omnivoxel : 全方位神経放射場の高速かつ精密な再構成法
- Authors: Qiaoge Li, Itsuki Ueda, Chun Xie, Hidehiko Shishido, Itaru Kitahara
- Abstract要約: 入射場を有する暗黙的なニューラルシーン表現は、限られた空間領域内でシーンの3次元形状を連続的に再構成することができる。
このプロセスを大幅に高速化する手法を提案する(シーンあたり20$sim$40分)。
- 参考スコア(独自算出の注目度): 1.601190705000295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a method to reconstruct the neural radiance field with
equirectangular omnidirectional images. Implicit neural scene representation
with a radiance field can reconstruct the 3D shape of a scene continuously
within a limited spatial area. However, training a fully implicit
representation on commercial PC hardware requires a lot of time and computing
resources (15 $\sim$ 20 hours per scene). Therefore, we propose a method to
accelerate this process significantly (20 $\sim$ 40 minutes per scene). Instead
of using a fully implicit representation of rays for radiance field
reconstruction, we adopt feature voxels that contain density and color features
in tensors. Considering omnidirectional equirectangular input and the camera
layout, we use spherical voxelization for representation instead of cubic
representation. Our voxelization method could balance the reconstruction
quality of the inner scene and outer scene. In addition, we adopt the
axis-aligned positional encoding method on the color features to increase the
total image quality. Our method achieves satisfying empirical performance on
synthetic datasets with random camera poses. Moreover, we test our method with
real scenes which contain complex geometries and also achieve state-of-the-art
performance. Our code and complete dataset will be released at the same time as
the paper publication.
- Abstract(参考訳): 本稿では,等角全方位画像を用いた神経放射野の再構成法を提案する。
入射場を有する暗黙的なニューラルシーン表現は、限られた空間領域内でシーンの3次元形状を継続的に再構築することができる。
しかし、商用PCハードウェア上で完全に暗黙的な表現をトレーニングするには、多くの時間と計算資源が必要である(シーン当たり15$\sim$20時間)。
そこで本研究では,この過程を著しく加速する手法を提案する(シーンあたり20ドル=40分)。
放射場再構成のために完全に暗黙的な光線表現を使用する代わりに、テンソルに密度と色の特徴を含む特徴ボクセルを採用する。
全方向等角入力とカメラレイアウトを考えると、球面ボクセル化を立方体表現の代わりに用いる。
当社のボキセル化法は,内部シーンと外部シーンの再現品質のバランスをとることができた。
さらに,カラー特徴量に軸方向の位置符号化法を適用し,画像の画質を向上する。
本手法は,ランダムなカメラポーズを用いた合成データセットにおける経験的性能を満足する。
さらに,複雑なジオメトリを含む実際のシーンでテストを行い,最先端のパフォーマンスを実現する。
私たちのコードと完全なデータセットは、論文公開と同時にリリースされます。
関連論文リスト
- SCube: Instant Large-Scale Scene Reconstruction using VoxSplats [55.383993296042526]
SCubeは画像の粗い集合から大規模3次元シーン(幾何学、外観、意味論)を再構成する新しい手法である。
提案手法は,高解像度のスパース・ボクセル・足場上に支持された3次元ガウスの組である,新しい表現VoxSplatを用いて再構成シーンを符号化する。
論文 参考訳(メタデータ) (2024-10-26T00:52:46Z) - BeNeRF: Neural Radiance Fields from a Single Blurry Image and Event Stream [11.183799667913815]
一つのぼやけた画像とそれに対応するイベントストリームからニューラル放射場(NeRF)を復元する可能性を示す。
本手法は暗黙的なニューラルシーンの表現を共同で学習し,カメラの動きを復元する。
論文 参考訳(メタデータ) (2024-07-02T11:28:22Z) - 3D Gaussian Splatting for Real-Time Radiance Field Rendering [4.320393382724066]
競争力のあるトレーニング時間を維持しながら、最先端の視覚的品質を達成するための3つの重要な要素を紹介します。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2023-08-08T06:37:06Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - Efficient Neural Radiance Fields with Learned Depth-Guided Sampling [43.79307270743013]
本稿では,暗示放射場と暗示深度マップを組み合わせたハイブリッドシーン表現を提案する。
実験の結果,提案手法はDTU, Real Forward- facing および NeRF Synthetic データセット上での最先端性能を示すことがわかった。
また,動的人間パフォーマーの視点自由映像をリアルタイムに合成する方法について述べる。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - Neural Radiance Flow for 4D View Synthesis and Video Processing [59.9116932930108]
本稿では,RGB画像から動的シーンの4次元空間時空間表現を学習する手法を提案する。
私たちのアプローチの鍵は、シーンの3D占有率、輝度、およびダイナミクスをキャプチャすることを学ぶ神経暗黙表現を使用することです。
論文 参考訳(メタデータ) (2020-12-17T17:54:32Z) - pixelNeRF: Neural Radiance Fields from One or Few Images [20.607712035278315]
pixelNeRFは、1つまたは少数の入力画像に条件付された連続的なニューラルシーン表現を予測する学習フレームワークである。
本研究では,単一画像の新規ビュー合成タスクのためのShapeNetベンチマーク実験を行った。
いずれの場合も、ピクセルNeRFは、新しいビュー合成とシングルイメージ3D再構成のための最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-12-03T18:59:54Z) - Neural Sparse Voxel Fields [151.20366604586403]
高速かつ高品質な自由視点レンダリングのためのニューラルシーン表現であるNeural Sparse Voxel Fields (NSVF)を紹介する。
NSVFは、各細胞の局所特性をモデル化するために、スパース・ボクセル・オクツリーで組織された、ボクセルに結合した暗黙のフィールドのセットを定義する。
提案手法は, 高い品質を達成しつつ, 推論時の最先端技術(NeRF(Mildenhall et al., 2020))よりも10倍以上高速である。
論文 参考訳(メタデータ) (2020-07-22T17:51:31Z) - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis [78.5281048849446]
本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
論文 参考訳(メタデータ) (2020-03-19T17:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。