論文の概要: TimeNeRF: Building Generalizable Neural Radiance Fields across Time from Few-Shot Input Views
- arxiv url: http://arxiv.org/abs/2507.13929v1
- Date: Fri, 18 Jul 2025 14:07:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.304893
- Title: TimeNeRF: Building Generalizable Neural Radiance Fields across Time from Few-Shot Input Views
- Title(参考訳): TimeNeRF:Few-Shot Input Viewsから時間にわたって一般化可能なニューラルラジアンスフィールドを構築する
- Authors: Hsiang-Hui Hung, Huu-Phu Do, Yung-Hui Li, Ching-Chun Huang,
- Abstract要約: TimeNeRFは、任意の視点で新しいビューをレンダリングするための一般化可能なニューラルネットワークレンダリングアプローチである。
我々は、TimeNeRFがシーンごとの最適化なしに、数ショットで新しいビューをレンダリングできることを示します。
異なる時代をスムーズに移行する現実的な斬新な視点を創り出すのに長けている。
- 参考スコア(独自算出の注目度): 6.319765967588987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present TimeNeRF, a generalizable neural rendering approach for rendering novel views at arbitrary viewpoints and at arbitrary times, even with few input views. For real-world applications, it is expensive to collect multiple views and inefficient to re-optimize for unseen scenes. Moreover, as the digital realm, particularly the metaverse, strives for increasingly immersive experiences, the ability to model 3D environments that naturally transition between day and night becomes paramount. While current techniques based on Neural Radiance Fields (NeRF) have shown remarkable proficiency in synthesizing novel views, the exploration of NeRF's potential for temporal 3D scene modeling remains limited, with no dedicated datasets available for this purpose. To this end, our approach harnesses the strengths of multi-view stereo, neural radiance fields, and disentanglement strategies across diverse datasets. This equips our model with the capability for generalizability in a few-shot setting, allows us to construct an implicit content radiance field for scene representation, and further enables the building of neural radiance fields at any arbitrary time. Finally, we synthesize novel views of that time via volume rendering. Experiments show that TimeNeRF can render novel views in a few-shot setting without per-scene optimization. Most notably, it excels in creating realistic novel views that transition smoothly across different times, adeptly capturing intricate natural scene changes from dawn to dusk.
- Abstract(参考訳): 我々は、任意の視点と任意のタイミングで、入力ビューが少ない場合でも、新しいビューをレンダリングするための一般化可能なニューラルネットワークレンダリングであるTimeNeRFを提案する。
現実世界のアプリケーションでは、複数のビューを収集し、見えないシーンを再最適化するのは非効率である。
さらに、デジタル領域、特にメタバースが没入感を増すにつれて、昼と夜の間で自然に遷移する3D環境をモデル化する能力が最重要となる。
ニューラル・ラディアンス・フィールド(NeRF)に基づく現在の技術は、新しいビューの合成に顕著な熟練性を示しているが、NeRFの時間的3次元シーンモデリングの可能性は依然として限定的であり、この目的のために専用のデータセットは提供されていない。
この目的のために,本手法は多視点ステレオ,ニューラルラディアンスフィールド,および多様なデータセット間の絡み合い戦略の強みを利用する。
これにより,シーン表現のための暗黙のコンテンツラディアンス場を構築することができ,任意の時間でニューラルラディアンス場を構築することが可能となる。
最後に、ボリュームレンダリングにより、その時代の新しいビューを合成する。
実験によると、TimeNeRFはシーンごとの最適化なしに、数ショットで新しいビューをレンダリングできる。
特筆すべきは、時代によってスムーズに変化する現実的な斬新な景色を創造し、夜明けから夕暮れまでの複雑な自然の風景を巧みにとらえることである。
関連論文リスト
- Incremental Multi-Scene Modeling via Continual Neural Graphics Primitives [17.411855207380256]
連続ニューラルネットワークプリミティブ(Continuous-Neural Graphics Primitives, C-NGP)は,複数のシーンを段階的に1つの神経放射場に統合する,新しい連続学習フレームワークである。
C-NGPは古いデータにアクセスすることなく新しいシーンに適応する。
我々は、C-NGPがパラメータ数を増やすことなく複数のシーンに対応できることを示し、合成および実データに対する高品質なノベルビューレンダリングを生成する。
論文 参考訳(メタデータ) (2024-11-29T18:05:16Z) - NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - NeVRF: Neural Video-based Radiance Fields for Long-duration Sequences [53.8501224122952]
本稿では,新しいニューラルビデオベース放射場(NeVRF)の表現を提案する。
NeVRFは、画像ベースのレンダリングを備えたニューラルラディアンスフィールドをマージし、長期のダイナミックな内向きシーンにおけるフォトリアリスティックなノベルビュー合成をサポートする。
本実験は,NeVRFが長期化シーケンスレンダリング,シーケンシャルデータ再構成,コンパクトデータストレージの実現に有効であることを示す。
論文 参考訳(メタデータ) (2023-12-10T11:14:30Z) - Strata-NeRF : Neural Radiance Fields for Stratified Scenes [29.58305675148781]
現実の世界では、複数のレベルでシーンをキャプチャし、レイヤー化されたキャプチャをもたらすかもしれません。
複数レベルのシーンを暗黙的にキャプチャする単一神経放射場であるStrata-NeRFを提案する。
Strata-NeRFは階層化されたシーンを効果的に捉え、アーティファクトを最小化し、高忠実度ビューを合成する。
論文 参考訳(メタデータ) (2023-08-20T18:45:43Z) - Template-free Articulated Neural Point Clouds for Reposable View
Synthesis [11.535440791891217]
本研究では,マルチビュー映像から動的NeRFと関連する骨格モデルを共同で学習する新しい手法を提案する。
我々のフォワードウォーピングアプローチは、新しいビューやポーズを合成する際に、最先端の視覚的忠実度を達成する。
論文 参考訳(メタデータ) (2023-05-30T14:28:08Z) - Neural Radiance Fields (NeRFs): A Review and Some Recent Developments [0.0]
Neural Radiance Field(NeRF)は、完全に接続されたニューラルネットワークの重みの3Dシーンを表すフレームワークである。
ベースフレームワークの性能と能力を拡張する最近の開発によって、NeRFはポピュラーな研究分野になってきた。
論文 参考訳(メタデータ) (2023-04-30T03:23:58Z) - Cascaded and Generalizable Neural Radiance Fields for Fast View
Synthesis [35.035125537722514]
ビュー合成のためのカスケードおよび一般化可能なニューラル放射場法であるCG-NeRFを提案する。
DTUデータセットの複数の3DシーンでCG-NeRFをトレーニングする。
CG-NeRFは、様々な合成および実データに対して、最先端の一般化可能なニューラルネットワークレンダリング手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-09T12:23:48Z) - Unsupervised Discovery and Composition of Object Light Fields [57.198174741004095]
オブジェクト中心の合成シーン表現において、オブジェクトを光場として表現することを提案する。
オブジェクト中心の光場から大域的な光場を再構成できる新しい光場合成モジュールを提案する。
論文 参考訳(メタデータ) (2022-05-08T17:50:35Z) - BungeeNeRF: Progressive Neural Radiance Field for Extreme Multi-scale
Scene Rendering [145.95688637309746]
本稿では,大々的に変化するスケールにわたる詳細レンダリングを実現するプログレッシブ・ニューラル放射場である BungeeNeRF を紹介する。
多様なマルチスケールシーンをモデル化する上での BungeeNeRF の優位性を示す。
論文 参考訳(メタデータ) (2021-12-10T13:16:21Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。