論文の概要: DivCon-NeRF: Generating Augmented Rays with Diversity and Consistency for Few-shot View Synthesis
- arxiv url: http://arxiv.org/abs/2503.12947v1
- Date: Mon, 17 Mar 2025 08:59:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:31.099837
- Title: DivCon-NeRF: Generating Augmented Rays with Diversity and Consistency for Few-shot View Synthesis
- Title(参考訳): DivCon-NeRF:Few-shot View 合成のための多様性と一貫性を持つ拡張光の発生
- Authors: Ingyun Lee, Jae Won Jang, Seunghyeon Seo, Nojun Kwak,
- Abstract要約: 多様性と一貫性を両立させるDivCon-NeRFを提案する。
DivCon-NeRFは、内面拡大を導入することにより、様々な視点の角度と距離をランダム化する。
Blender, LLFF, DTUデータセット上での最先端性能を実現し, フローターと視覚歪みを大幅に低減する。
- 参考スコア(独自算出の注目度): 24.645337338400335
- License:
- Abstract: Neural Radiance Field (NeRF) has shown remarkable performance in novel view synthesis but requires many multiview images, making it impractical for few-shot scenarios. Ray augmentation was proposed to prevent overfitting for sparse training data by generating additional rays. However, existing methods, which generate augmented rays only near the original rays, produce severe floaters and appearance distortion due to limited viewpoints and inconsistent rays obstructed by nearby obstacles and complex surfaces. To address these problems, we propose DivCon-NeRF, which significantly enhances both diversity and consistency. It employs surface-sphere augmentation, which preserves the distance between the original camera and the predicted surface point. This allows the model to compare the order of high-probability surface points and filter out inconsistent rays easily without requiring the exact depth. By introducing inner-sphere augmentation, DivCon-NeRF randomizes angles and distances for diverse viewpoints, further increasing diversity. Consequently, our method significantly reduces floaters and visual distortions, achieving state-of-the-art performance on the Blender, LLFF, and DTU datasets. Our code will be publicly available.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、新しいビュー合成において顕著な性能を示してきたが、多くのマルチビュー画像を必要とするため、少数のシナリオでは実用的ではない。
余剰光を発生させることにより、スパーストレーニングデータの過度な適合を防止するために、光増倍法が提案された。
しかし、既存の方法では、元の光線近傍のみに増光線を発生させるため、限られた視点や、近くの障害物や複雑な表面によって妨害される不整合線によって、深刻なフローターや外観の歪みが生じる。
これらの問題に対処するため,多様性と一貫性を両立させるDivCon-NeRFを提案する。
これは、元のカメラと予測された表面点の間の距離を保った表面圏の増大を利用する。
これにより、モデルが高確率表面点の順序を比較し、正確な深さを必要とせず容易に不整合線をフィルタリングすることができる。
内圏拡大の導入により、DivCon-NeRFは様々な視点で角度と距離をランダム化し、さらに多様性を増す。
その結果,フローターと視覚歪みを著しく低減し,Blender,LLFF,DTUデータセット上での最先端性能を実現した。
私たちのコードは公開されます。
関連論文リスト
- NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - FlipNeRF: Flipped Reflection Rays for Few-shot Novel View Synthesis [30.25904672829623]
FlipNeRFは,提案したフレキシブルリフレクション線を利用して,数発の新規ビュー合成のための新しい正規化手法である。
FlipNeRFは、異なるシーン構造全体にわたって効果的に浮かぶアーティファクトを削減し、より信頼性の高いアウトプットを見積もることができる。
論文 参考訳(メタデータ) (2023-06-30T15:11:00Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from
3D-aware Diffusion [107.67277084886929]
単一の画像からの新しいビュー合成には、オブジェクトやシーンの隠蔽領域を推論すると同時に、入力とのセマンティックおよび物理的整合性を同時に維持する必要がある。
そこで我々は,NerfDiffを提案する。NerfDiffは3D対応条件拡散モデル(CDM)の知識を,テスト時に仮想ビューの集合を合成・精製することで,NeRFに抽出することでこの問題に対処する。
さらに,CDMサンプルから3次元一貫した仮想ビューを同時に生成し,改良された仮想ビューに基づいてNeRFを微調整する新しいNeRF誘導蒸留アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-20T17:12:00Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。