論文の概要: NeRF, meet differential geometry!
- arxiv url: http://arxiv.org/abs/2206.14938v1
- Date: Wed, 29 Jun 2022 22:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 14:49:45.529019
- Title: NeRF, meet differential geometry!
- Title(参考訳): ネルフ 微分幾何に会え!
- Authors: Thibaud Ehret, Roger Mar\'i, Gabriele Facciolo
- Abstract要約: 微分幾何学は、NeRFのようなモデルを頑健に訓練するための正規化ツールをいかに提供できるかを示す。
これらのツールが,従来提案されていたNeRF変種を直接数学的定式化して,課題のある条件下での性能向上を図る方法を示す。
- 参考スコア(独自算出の注目度): 10.269997499911668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural radiance fields, or NeRF, represent a breakthrough in the field of
novel view synthesis and 3D modeling of complex scenes from multi-view image
collections. Numerous recent works have been focusing on making the models more
robust, by means of regularization, so as to be able to train with possibly
inconsistent and/or very sparse data. In this work, we scratch the surface of
how differential geometry can provide regularization tools for robustly
training NeRF-like models, which are modified so as to represent continuous and
infinitely differentiable functions. In particular, we show how these tools
yield a direct mathematical formalism of previously proposed NeRF variants
aimed at improving the performance in challenging conditions (i.e. RegNeRF).
Based on this, we show how the same formalism can be used to natively encourage
the regularity of surfaces (by means of Gaussian and Mean Curvatures) making it
possible, for example, to learn surfaces from a very limited number of views.
- Abstract(参考訳): ニューラル・ラディアンス・フィールド(NeRF)は、多視点画像コレクションからの複雑なシーンの3次元モデリングと新しいビュー合成の分野におけるブレークスルーを表している。
最近の多くの研究は、モデルが一貫性のないデータや、非常に疎いデータでトレーニングできるように、正規化によってより堅牢にすることに注力している。
本研究では,連続かつ無限に微分可能な関数を表現するために修正されたnrf様モデルを頑健にトレーニングするための正規化ツールとして微分幾何学をどのように提供するかという面をスクラッチする。
特に,これらのツールが,挑戦条件(RegNeRF)の性能向上を目的とした,従来提案されていたNeRF変種を直接数学的定式化する方法を示す。
これに基づいて、同じ形式主義が(ガウス曲率と平均曲率によって)曲面の正則性をネイティブに奨励するためにどのように用いられるかを示し、例えば、非常に限られた数の視点から曲面を学ぶことができることを示した。
関連論文リスト
- SphereDiffusion: Spherical Geometry-Aware Distortion Resilient Diffusion Model [63.685132323224124]
制御可能な球状パノラマ画像生成は、様々な領域でかなりの応用可能性を持っている。
本稿では,これらの課題に対処するために,SphereDiffusionの新しいフレームワークを提案する。
Structured3Dデータセットの実験では、SphereDiffusionは制御可能な球面画像生成の品質を大幅に改善し、平均して約35%のFIDを相対的に削減している。
論文 参考訳(メタデータ) (2024-03-15T06:26:46Z) - ProvNeRF: Modeling per Point Provenance in NeRFs as a Stochastic Field [52.09661042881063]
テキストフィールドとしてNeRFのbfprovenance(可視な位置)をモデル化する手法を提案する。
我々は、NeRF最適化におけるポイントごとの精度のモデリングにより、新しいビュー合成と不確実性推定の改善につながる情報により、モデルが強化されることを示す。
論文 参考訳(メタデータ) (2024-01-16T06:19:18Z) - Single-Stage Diffusion NeRF: A Unified Approach to 3D Generation and
Reconstruction [77.69363640021503]
3D対応画像合成は、シーン生成や画像からの新規ビュー合成など、様々なタスクを含む。
本稿では,様々な物体の多視点画像から,ニューラルラディアンス場(NeRF)の一般化可能な事前学習を行うために,表現拡散モデルを用いた統一的アプローチであるSSDNeRFを提案する。
論文 参考訳(メタデータ) (2023-04-13T17:59:01Z) - Mask-Based Modeling for Neural Radiance Fields [20.728248301818912]
本研究では,マスクベースモデリングにより3次元暗黙表現学習を大幅に改善できることを明らかにする。
MRVM-NeRFは,各光線に沿った部分的マスキング特徴から,シーンの完全な表現を予測するための自己教師付き事前学習対象である。
この事前学習目標により、MRVM-NeRFは、幾何学的先行として異なる点とビュー間の相関をよりよく利用することができる。
論文 参考訳(メタデータ) (2023-04-11T04:12:31Z) - Dynamic Point Fields [30.029872787758705]
本稿では,明示的な点ベースグラフィックスの表現的利点と暗黙的な変形ネットワークを組み合わせた動的点場モデルを提案する。
我々は,その表現力,学習効率,および配布外小説のポーズに対する堅牢性の観点から,我々の動的点場フレームワークの利点を示す。
論文 参考訳(メタデータ) (2023-04-05T17:52:37Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - RegNeRF: Regularizing Neural Radiance Fields for View Synthesis from
Sparse Inputs [79.00855490550367]
我々は,多くの入力ビューが利用可能である場合,NeRFは見えない視点のフォトリアリスティックレンダリングを生成することができることを示す。
我々は、未観測の視点からレンダリングされたパッチの幾何学と外観を規則化することで、この問題に対処する。
我々のモデルは、1つのシーンで最適化する他の方法よりも、大規模なマルチビューデータセットで広範囲に事前訓練された条件付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-12-01T18:59:46Z) - NeRF-VAE: A Geometry Aware 3D Scene Generative Model [14.593550382914767]
本研究では,NeRFによる幾何学的構造を組み込んだ3次元シーン生成モデルNeRF-VAEを提案する。
NeRF-VAEの明示的な3Dレンダリングプロセスは、以前の生成モデルと畳み込みベースのレンダリングとを対比する。
トレーニングが完了すると、NeRF-VAEは以前に見つからなかった3D環境から幾何学的に一貫性のあるシーンを推測、描画できることを示す。
論文 参考訳(メタデータ) (2021-04-01T16:16:31Z) - Nerfies: Deformable Neural Radiance Fields [44.923025540903886]
携帯電話からカジュアルに撮影した写真やビデオを用いて、変形可能なシーンをリアルに再構築する最初の方法を提案する。
提案手法は、観測された各点を正準5D NeRFに湾曲する追加の連続体積変形場を最適化することにより、ニューラルラジアンス場(NeRF)を増強する。
提案手法は,非厳密な場面を忠実に再構築し,不明瞭な視点を高い忠実度で再現する。
論文 参考訳(メタデータ) (2020-11-25T18:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。