論文の概要: DoubleField: Bridging the Neural Surface and Radiance Fields for
High-fidelity Human Rendering
- arxiv url: http://arxiv.org/abs/2106.03798v1
- Date: Mon, 7 Jun 2021 17:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:58:09.292626
- Title: DoubleField: Bridging the Neural Surface and Radiance Fields for
High-fidelity Human Rendering
- Title(参考訳): doublefield: 高忠実な人間のレンダリングのための神経表面と放射野のブリッジ
- Authors: Ruizhi Shao, Hongwen Zhang, He Zhang, Yanpei Cao, Tao Yu, Yebin Liu
- Abstract要約: DoubleFieldは、高忠実な人間のレンダリングのための表面場と放射場の両方の利点を組み合わせた表現である。
DoubleFieldは、幾何学と外見モデリングのための連続的だが非絡み合いの学習空間を持ち、高速なトレーニング、推論、微調整をサポートする。
DoubleFieldの有効性は、複数のデータセットの定量的評価と、実世界のスパースマルチビューシステムにおける質的な結果によって検証される。
- 参考スコア(独自算出の注目度): 43.12198563879908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce DoubleField, a novel representation combining the merits of both
surface field and radiance field for high-fidelity human rendering. Within
DoubleField, the surface field and radiance field are associated together by a
shared feature embedding and a surface-guided sampling strategy. In this way,
DoubleField has a continuous but disentangled learning space for geometry and
appearance modeling, which supports fast training, inference, and finetuning.
To achieve high-fidelity free-viewpoint rendering, DoubleField is further
augmented to leverage ultra-high-resolution inputs, where a view-to-view
transformer and a transfer learning scheme are introduced for more efficient
learning and finetuning from sparse-view inputs at original resolutions. The
efficacy of DoubleField is validated by the quantitative evaluations on several
datasets and the qualitative results in a real-world sparse multi-view system,
showing its superior capability for photo-realistic free-viewpoint human
rendering. For code and demo video, please refer to our project page:
http://www.liuyebin.com/dbfield/dbfield.html.
- Abstract(参考訳): 高忠実な人間のレンダリングのための表面場と放射場の両方の利点を組み合わせた新しい表現であるDoubleFieldを紹介する。
ダブルフィールド内では、表面場と放射場は共有特徴埋め込みと表面誘導サンプリング戦略によって関連付けられる。
このように、doublefieldは、幾何学と外観モデリングのための連続的だが不連続な学習空間を持ち、高速なトレーニング、推論、微調整をサポートする。
高精細度自由視点レンダリングを実現するために、DoubleFieldはさらに高精細度インプットを活用するように拡張され、ビュー・ツー・ビュー・トランスフォーマーとトランスファーラーニング・スキームが導入された。
ダブルフィールドの有効性は、複数のデータセットの定量的評価と、実世界のスパースマルチビューシステムにおける質的結果によって検証され、フォトリアリスティックなフリー視点のヒューマンレンダリングに優れた能力を示す。
コードとデモビデオについては、プロジェクトのページを参照してください。
関連論文リスト
- Mesh2NeRF: Direct Mesh Supervision for Neural Radiance Field Representation and Generation [51.346733271166926]
Mesh2NeRFは、3次元生成タスクのためのテクスチャメッシュから地上構造放射場を導出するアプローチである。
各種タスクにおけるMesh2NeRFの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-28T11:22:53Z) - Sur2f: A Hybrid Representation for High-Quality and Efficient Surface
Reconstruction from Multi-view Images [41.81291587750352]
マルチビュー表面再構成は、3次元視覚研究において不適切な逆問題である。
既存の手法のほとんどは、暗黙のメッシュや暗黙のフィールド関数に依存しており、復元のためにフィールドのボリュームレンダリングを使用している。
相補的な方法で両表現の利点を向上することを目的としたハイブリッド表現(Sur2f)を提案する。
論文 参考訳(メタデータ) (2024-01-08T07:22:59Z) - ColNeRF: Collaboration for Generalizable Sparse Input Neural Radiance
Field [89.54363625953044]
Collaborative Neural Radiance Fields (ColNeRF) はスパース入力で動作するように設計されている。
ColNeRFはよりリッチでより一般化されたシーン表現をキャプチャできる。
我々のアプローチは、新しい場面に適応するための微調整において優位性を示す。
論文 参考訳(メタデータ) (2023-12-14T16:26:46Z) - Feature 3DGS: Supercharging 3D Gaussian Splatting to Enable Distilled Feature Fields [54.482261428543985]
ニューラル・ラジアンス・フィールドを使用する手法は、新しいビュー合成のような従来のタスクに汎用的である。
3次元ガウシアンスプラッティングは, 実時間ラディアンス場レンダリングにおける最先端の性能を示した。
この問題を効果的に回避するために,アーキテクチャとトレーニングの変更を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:46:30Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - ImmersiveNeRF: Hybrid Radiance Fields for Unbounded Immersive Light
Field Reconstruction [32.722973192853296]
本稿では,入射光場再構成のためのハイブリッド放射場表現を提案する。
我々は2つの異なる空間マッピング戦略を持つ2つの別々の放射場として、前景と背景を表現している。
また、THUImmersiveという新しい没入型光フィールドデータセットも提供し、より広い空間6DoFの没入型レンダリング効果を実現する可能性を秘めている。
論文 参考訳(メタデータ) (2023-09-04T05:57:16Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - Light Field Neural Rendering [47.7586443731997]
幾何再構成に基づく手法はスパースビューのみを必要とするが、非ランベルト効果を正確にモデル化することはできない。
強みを組み合わせたモデルを導入し、これらの2つの方向の制限を緩和する。
我々のモデルは、複数の前方向きデータセットと360degデータセットで最先端のモデルより優れています。
論文 参考訳(メタデータ) (2021-12-17T18:58:05Z) - Generative Occupancy Fields for 3D Surface-Aware Image Synthesis [123.11969582055382]
GOF(Generative Occupancy Fields)は、生成放射場に基づく新しいモデルである。
GOFは高品質な画像を3D整合性で合成し、コンパクトで滑らかな物体表面を同時に学習することができる。
論文 参考訳(メタデータ) (2021-11-01T14:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。