論文の概要: Mip-NeRF 360: Unbounded Anti-Aliased Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2111.12077v1
- Date: Tue, 23 Nov 2021 18:51:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 16:01:39.798673
- Title: Mip-NeRF 360: Unbounded Anti-Aliased Neural Radiance Fields
- Title(参考訳): Mip-NeRF 360:非有界反エイリアス性神経放射場
- Authors: Jonathan T. Barron, Ben Mildenhall, Dor Verbin, Pratul P. Srinivasan,
Peter Hedman
- Abstract要約: 我々は,非線形シーンパラメータ化,オンライン蒸留,新しい歪みベースの正規化器を用いて,非境界シーンの課題を克服するmip-NeRFの拡張を提案する。
このモデルでは,mip-NeRF 360 を用いて平均二乗誤差を mip-NeRF と比較して 54% 削減し,リアルに合成されたビューと詳細な深度マップを作成できる。
- 参考スコア(独自算出の注目度): 43.69542675078766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though neural radiance fields (NeRF) have demonstrated impressive view
synthesis results on objects and small bounded regions of space, they struggle
on "unbounded" scenes, where the camera may point in any direction and content
may exist at any distance. In this setting, existing NeRF-like models often
produce blurry or low-resolution renderings (due to the unbalanced detail and
scale of nearby and distant objects), are slow to train, and may exhibit
artifacts due to the inherent ambiguity of the task of reconstructing a large
scene from a small set of images. We present an extension of mip-NeRF (a NeRF
variant that addresses sampling and aliasing) that uses a non-linear scene
parameterization, online distillation, and a novel distortion-based regularizer
to overcome the challenges presented by unbounded scenes. Our model, which we
dub "mip-NeRF 360" as we target scenes in which the camera rotates 360 degrees
around a point, reduces mean-squared error by 54% compared to mip-NeRF, and is
able to produce realistic synthesized views and detailed depth maps for highly
intricate, unbounded real-world scenes.
- Abstract(参考訳): ニューラルラディアンス場(NeRF)は、物体や空間の小さな境界領域で印象的なビュー合成結果を示しているが、カメラがあらゆる方向を指し、あらゆる距離に存在するかもしれない「境界のない」シーンで苦労している。
この設定では、既存のnerfライクなモデルは、しばしばぼやけた、または低解像度のレンダリング(近くの物体と遠くの物体のバランスのとれない詳細とスケール)を生成し、訓練が遅く、小さな画像から大きなシーンを再構築する作業の本来のあいまいさのためにアーティファクトを表示する。
本稿では,非有界シーンの課題を克服するために,非線形シーンパラメータ化,オンライン蒸留,新しい歪みに基づく正則化器を用いたmip-nerf(サンプリングとエイリアスに対処するnerf変種)の拡張を提案する。
我々のモデルは、カメラが1点あたり360度回転するシーンをターゲットとしており、平均2乗誤差をmip-NeRFに比べて54%低減し、高度に複雑で無界な現実世界のシーンに対して、リアルに合成されたビューと詳細な深度マップを作成することができる。
関連論文リスト
- Neural Light Spheres for Implicit Image Stitching and View Synthesis [32.396278546192995]
暗黙的パノラマ画像縫合と再レンダリングのための球状神経電場モデル
従来の画像縫合法や放射場法に比べて再現性は向上した。
論文 参考訳(メタデータ) (2024-09-26T15:05:29Z) - NeRF On-the-go: Exploiting Uncertainty for Distractor-free NeRFs in the Wild [55.154625718222995]
我々は,複雑なシーンにおける新規ビューのロバストな合成を可能にする,シンプルで効果的な方法であるNeRF On-the-goを紹介する。
本手法は,最先端技術よりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-05-29T02:53:40Z) - Redefining Recon: Bridging Gaps with UAVs, 360 degree Cameras, and
Neural Radiance Fields [0.0]
小型無人機(UAV)の機能を相乗化する革新的なアプローチを導入する。
特殊なニューラルネットワークであるNeRFは、2D画像を使用して任意のシーンの3D表現を推論し、要求に応じて様々な角度から合成することができる。
我々は、最近の火災後のシナリオを通じて、挑戦的な屋外環境においても、NeRFの有効性を概説し、我々のアプローチを検証した。
論文 参考訳(メタデータ) (2023-11-30T14:21:29Z) - Drone-NeRF: Efficient NeRF Based 3D Scene Reconstruction for Large-Scale
Drone Survey [11.176205645608865]
本研究では,大規模なドローン撮影シーンの効率的な再構築を支援するために,Drone-NeRFフレームワークを提案する。
我々のアプローチは、シーンをカメラの位置と深さの可視性に基づいて、均一なサブブロックに分割することである。
サブシーンはNeRFを使用して並列にトレーニングされ、完全なシーンにマージされる。
論文 参考訳(メタデータ) (2023-08-30T03:17:57Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - Pre-NeRF 360: Enriching Unbounded Appearances for Neural Radiance Fields [8.634008996263649]
我々は,NeRFアーキテクチャの性能向上のための新しいフレームワークを提案する。
我々のソリューションは、以前のバージョンのNeRFに悩まされていたいくつかの障害を克服します。
我々はN5k360データセットとして知られるNutrition5kデータセットの更新版を導入する。
論文 参考訳(メタデータ) (2023-03-21T23:29:38Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z) - NeRF++: Analyzing and Improving Neural Radiance Fields [117.73411181186088]
ニューラル・レージアンス・フィールド(NeRF)は、様々なキャプチャ設定のための印象的なビュー合成結果を達成する。
NeRFは、ビュー不変不透明度とビュー依存カラーボリュームを表す多層パーセプトロンを一連のトレーニング画像に適合させる。
大規模3次元シーンにおける物体の360度捕獲にNeRFを適用する際のパラメトリゼーション問題に対処する。
論文 参考訳(メタデータ) (2020-10-15T03:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。