論文の概要: Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance
Fields
- arxiv url: http://arxiv.org/abs/2103.13415v1
- Date: Wed, 24 Mar 2021 18:02:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:28:14.535449
- Title: Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance
Fields
- Title(参考訳): mip-nerf: アンチエイリアシング神経放射場のためのマルチスケール表現
- Authors: Jonathan T. Barron, Ben Mildenhall, Matthew Tancik, Peter Hedman,
Ricardo Martin-Brualla, Pratul P. Srinivasan
- Abstract要約: mip-NeRF"("mipmap")は、NeRFを拡張してシーンを継続的に価値あるスケールで表現します。
mip-NeRFは、光線の代わりにアンチエイリアスコニカルフラストを効率的にレンダリングすることで、不快なエイリアスアーティファクトを低減します。
NeRFと比較して、mip-NeRFはNeRFで提示されたデータセットでは平均エラー率を16%、そのデータセットでは60%削減する。
- 参考スコア(独自算出の注目度): 45.84983186882732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rendering procedure used by neural radiance fields (NeRF) samples a scene
with a single ray per pixel and may therefore produce renderings that are
excessively blurred or aliased when training or testing images observe scene
content at different resolutions. The straightforward solution of supersampling
by rendering with multiple rays per pixel is impractical for NeRF, because
rendering each ray requires querying a multilayer perceptron hundreds of times.
Our solution, which we call "mip-NeRF" (a la "mipmap"), extends NeRF to
represent the scene at a continuously-valued scale. By efficiently rendering
anti-aliased conical frustums instead of rays, mip-NeRF reduces objectionable
aliasing artifacts and significantly improves NeRF's ability to represent fine
details, while also being 7% faster than NeRF and half the size. Compared to
NeRF, mip-NeRF reduces average error rates by 16% on the dataset presented with
NeRF and by 60% on a challenging multiscale variant of that dataset that we
present. Mip-NeRF is also able to match the accuracy of a brute-force
supersampled NeRF on our multiscale dataset while being 22x faster.
- Abstract(参考訳): neural radiance fields(nerf)が使用するレンダリング手順は、ピクセル当たりの1光線でシーンをサンプリングするので、画像のトレーニングやテストで異なる解像度でシーンコンテンツを観察する場合、過度にぼやけやエイリアスを生じる可能性がある。
ピクセル毎に複数の光線をレンダリングすることでスーパーサンプリングするという簡単な解決策は、nrfでは実用的ではない。
我々のソリューションは"mip-NeRF"("mipmap")と呼ばれ、NeRFを拡張して連続的に評価されたスケールでシーンを表現する。
Mip-NeRFは、放射線の代わりに抗エイリアス化円錐体を効率よくレンダリングすることで、異種エイリアス化アーティファクトを減らし、NeRFの細部を表現できる能力を大幅に改善し、NeRFよりも7%速くなる。
NeRFと比較して、mip-NeRFはNeRFで提示されたデータセットでは平均誤差率を16%削減し、そのデータセットでは60%削減する。
Mip-NeRFはまた、我々のマルチスケールデータセット上で、ブルートフォースのスーパーサンプリングされたNeRFの精度を22倍速くすることができる。
関連論文リスト
- PyNeRF: Pyramidal Neural Radiance Fields [51.25406129834537]
本研究では,異なる空間グリッド解像度でモデルヘッドを訓練することにより,グリッドモデルへの簡単な修正を提案する。
レンダリング時には、単に粗いグリッドを使用して、より大きなボリュームをカバーするサンプルをレンダリングします。
Mip-NeRFと比較して、60倍高速なトレーニングをしながらエラー率を20%削減する。
論文 参考訳(メタデータ) (2023-11-30T23:52:46Z) - Efficient View Synthesis with Neural Radiance Distribution Field [61.22920276806721]
我々は,リアルタイムに効率的なビュー合成を目標とするニューラルレージアンス分布場(NeRDF)という新しい表現を提案する。
我々は、NeLFのように1ピクセル当たりの1つのネットワーク転送でレンダリング速度を保ちながら、NeRFに似た小さなネットワークを使用する。
実験の結果,提案手法は既存の手法よりも速度,品質,ネットワークサイズとのトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2023-08-22T02:23:28Z) - R2L: Distilling Neural Radiance Field to Neural Light Field for
Efficient Novel View Synthesis [76.07010495581535]
一つのピクセルをレンダリングするには、数百回もNeural Radiance Fieldネットワークに問い合わせる必要がある。
NeLFは、新しい視点において、NeRFに対してより直接的な表現を提示する。
ディープNeLFネットワークをうまく学習する鍵は、十分なデータを持つことである。
論文 参考訳(メタデータ) (2022-03-31T17:57:05Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。