論文の概要: Mip-Grid: Anti-aliased Grid Representations for Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2402.14196v1
- Date: Thu, 22 Feb 2024 00:45:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:53:43.653007
- Title: Mip-Grid: Anti-aliased Grid Representations for Neural Radiance Fields
- Title(参考訳): Mip-Grid:ニューラルラジアンスフィールドのためのアンチエイリアスグリッド表現
- Authors: Seungtae Nam, Daniel Rho, Jong Hwan Ko, Eunbyung Park
- Abstract要約: 我々は、反エイリアス手法をグリッドベースの放射場表現に組み込む新しいアプローチであるmip-blurを提案する。
提案手法は,共有グリッド表現上に単純な畳み込み演算を適用してマルチスケールグリッドを生成する。
- 参考スコア(独自算出の注目度): 12.910072009005065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the remarkable achievements of neural radiance fields (NeRF) in
representing 3D scenes and generating novel view images, the aliasing issue,
rendering "jaggies" or "blurry" images at varying camera distances, remains
unresolved in most existing approaches. The recently proposed mip-NeRF has
addressed this challenge by rendering conical frustums instead of rays.
However, it relies on MLP architecture to represent the radiance fields,
missing out on the fast training speed offered by the latest grid-based
methods. In this work, we present mip-Grid, a novel approach that integrates
anti-aliasing techniques into grid-based representations for radiance fields,
mitigating the aliasing artifacts while enjoying fast training time. The
proposed method generates multi-scale grids by applying simple convolution
operations over a shared grid representation and uses the scale-aware
coordinate to retrieve features at different scales from the generated
multi-scale grids. To test the effectiveness, we integrated the proposed method
into the two recent representative grid-based methods, TensoRF and K-Planes.
Experimental results demonstrate that mip-Grid greatly improves the rendering
performance of both methods and even outperforms mip-NeRF on multi-scale
datasets while achieving significantly faster training time. For code and demo
videos, please see https://stnamjef.github.io/mipgrid.github.io/.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(nerf)による3dシーンの表現と新しい視点画像の生成の顕著な成果にもかかわらず、様々なカメラ距離で「ジャギー」や「ブラドリー」画像をレンダリングするエイリアス問題はほとんど既存のアプローチでは解決されていない。
最近提案されたmip-NeRFは、光線の代わりに円錐状のフラストラムを描画することでこの問題に対処している。
しかしながら、最新のグリッドベースメソッドによって提供される高速トレーニング速度を欠いた、ラミアンスフィールドを表現するためにmlpアーキテクチャに依存している。
そこで本研究では,抗エイリアス手法を放射能場に対するグリッドベース表現に統合した新しいアプローチであるmip-gridを提案する。
提案手法では,共有グリッド表現に単純な畳み込み操作を適用し,スケールアウェア座標を用いて,生成したマルチスケールグリッドから異なるスケールで特徴を検索する。
提案手法の有効性を検証するため,提案手法を2つの代表格子法であるTensoRFとK-Planesに統合した。
実験の結果、mip-Gridは両方の手法のレンダリング性能を大幅に改善し、マルチスケールデータセット上でのmip-NeRFよりも優れ、トレーニング時間が大幅に向上した。
コードとデモビデオについては、https://stnamjef.github.io/mipgrid.github.io/を参照。
関連論文リスト
- Freq-Mip-AA : Frequency Mip Representation for Anti-Aliasing Neural Radiance Fields [3.796287987989994]
Mip-NeRFはフラストタムを用いてピクセルを描画し、統合位置符号化(IPE)を提案する。
このアプローチは有効であるが、ボリュームアーキテクチャに依存しているため、長いトレーニング時間を必要とする。
本稿では,グリッドベース表現を利用した新しいアンチエイリアス手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T06:33:56Z) - PyNeRF: Pyramidal Neural Radiance Fields [51.25406129834537]
本研究では,異なる空間グリッド解像度でモデルヘッドを訓練することにより,グリッドモデルへの簡単な修正を提案する。
レンダリング時には、単に粗いグリッドを使用して、より大きなボリュームをカバーするサンプルをレンダリングします。
Mip-NeRFと比較して、60倍高速なトレーニングをしながらエラー率を20%削減する。
論文 参考訳(メタデータ) (2023-11-30T23:52:46Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z) - Zip-NeRF: Anti-Aliased Grid-Based Neural Radiance Fields [64.13207562222094]
我々は、mip-NeRF 360とグリッドベースモデルを組み合わせた手法が、どちらの手法よりも8%から77%低い誤差率を発生し、mip-NeRF 360より24倍速く訓練できることを示します。
論文 参考訳(メタデータ) (2023-04-13T17:55:12Z) - Grid-guided Neural Radiance Fields for Large Urban Scenes [146.06368329445857]
近年のアプローチでは、シーンを地理的に分割し、複数のサブNeRFを採用して各領域を個別にモデル化する手法が提案されている。
もう一つの解決策は、計算効率が良く、大きなシーンに自然にスケールできる機能グリッド表現を使用することである。
本稿では,大規模都市における高忠実度レンダリングを実現し,計算効率を向上する枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-24T13:56:45Z) - SPARF: Large-Scale Learning of 3D Sparse Radiance Fields from Few Input
Images [62.64942825962934]
本稿では、新しいビュー合成のための大規模ShapeNetベースの合成データセットであるSPARFを提案する。
少数の視点からスパースボクセル放射場を生成することを学習する新しいパイプライン(SuRFNet)を提案する。
SuRFNetは、少数の/1画像からの部分的なSRFと特別なSRF損失を用いて、高品質なボクセル放射場を生成することを学ぶ。
論文 参考訳(メタデータ) (2022-12-18T14:56:22Z) - Neural Deformable Voxel Grid for Fast Optimization of Dynamic View
Synthesis [63.25919018001152]
動的シーンを扱うための高速な変形可能な放射場法を提案する。
本手法は訓練に20分しかかからないD-NeRFに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2022-06-15T17:49:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。