論文の概要: KiloNeRF: Speeding up Neural Radiance Fields with Thousands of Tiny MLPs
- arxiv url: http://arxiv.org/abs/2103.13744v1
- Date: Thu, 25 Mar 2021 10:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 19:51:40.516918
- Title: KiloNeRF: Speeding up Neural Radiance Fields with Thousands of Tiny MLPs
- Title(参考訳): KiloNeRF:何千ものティニーMLPによるニューラルラジアンスフィールドの高速化
- Authors: Christian Reiser and Songyou Peng and Yiyi Liao and Andreas Geiger
- Abstract要約: NeRFは、RGB画像にニューラルラジアンスフィールドを取り付けることで、前例のない品質のシーンの斬新なビューを合成します。
NeRFは、深層多層パーセプトロン(MLP)を数百万回クエリする必要があるため、レンダリング時間が遅くなる。
本稿では,1個ではなく数千個の小片を利用することで,大幅なスピードアップが可能であることを実証する。
- 参考スコア(独自算出の注目度): 57.92305990098477
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: NeRF synthesizes novel views of a scene with unprecedented quality by fitting
a neural radiance field to RGB images. However, NeRF requires querying a deep
Multi-Layer Perceptron (MLP) millions of times, leading to slow rendering
times, even on modern GPUs. In this paper, we demonstrate that significant
speed-ups are possible by utilizing thousands of tiny MLPs instead of one
single large MLP. In our setting, each individual MLP only needs to represent
parts of the scene, thus smaller and faster-to-evaluate MLPs can be used. By
combining this divide-and-conquer strategy with further optimizations,
rendering is accelerated by two orders of magnitude compared to the original
NeRF model without incurring high storage costs. Further, using teacher-student
distillation for training, we show that this speed-up can be achieved without
sacrificing visual quality.
- Abstract(参考訳): NeRFは、RGB画像にニューラルラディアンス場を合わせることにより、前例のない品質のシーンの新たなビューを合成する。
しかし、nerfは数百万回ものmlp(deep multi-layer perceptron)クエリを必要とするため、現在のgpuでもレンダリング時間が遅くなる。
本稿では,1つの大きなMLPではなく,何千もの小さなMLPを活用することで,大幅な高速化が可能であることを実証する。
我々の設定では、個々のMLPはシーンの一部だけを表現する必要があるため、より小さく、より高速にMDPを使用できる。
この分割・対数戦略とさらなる最適化を組み合わせることで、高ストレージコストを伴わずに、元のNeRFモデルと比較して2桁のレンダリングを高速化する。
さらに, 教師・生徒の蒸留を訓練に利用することで, このスピードアップが視覚品質を犠牲にすることなく実現できることを示す。
関連論文リスト
- PyNeRF: Pyramidal Neural Radiance Fields [51.25406129834537]
本研究では,異なる空間グリッド解像度でモデルヘッドを訓練することにより,グリッドモデルへの簡単な修正を提案する。
レンダリング時には、単に粗いグリッドを使用して、より大きなボリュームをカバーするサンプルをレンダリングします。
Mip-NeRFと比較して、60倍高速なトレーニングをしながらエラー率を20%削減する。
論文 参考訳(メタデータ) (2023-11-30T23:52:46Z) - MIMO-NeRF: Fast Neural Rendering with Multi-input Multi-output Neural
Radiance Fields [20.586692311724914]
放射場(NeRF)は、新規なビュー合成のための印象的な結果を示している。
これらは、単出力単出力多層パーセプトロン(SISO)の反復的な使用に依存し、3次元座標とビュー方向をサンプルワイズで色と体積密度にマッピングする。
我々は、SISOをaSuperviseに置き換え、グループワイズでマッピングを行うことにより、動作数を削減できるマルチインプットマルチアウトプットNeRF(MIMO-NeRF)を提案する。
論文 参考訳(メタデータ) (2023-10-03T06:33:05Z) - ReLU Fields: The Little Non-linearity That Could [62.228229880658404]
我々は,高忠実度結果の保持を可能にするグリッドベース表現に対する最小の変更点について検討する。
このようなアプローチが最先端技術と競合することを示します。
論文 参考訳(メタデータ) (2022-05-22T13:42:31Z) - Sparse MLP for Image Recognition: Is Self-Attention Really Necessary? [65.37917850059017]
我々は sMLPNet というアテンションレスネットワークを構築した。
2次元画像トークンでは、sMLPは軸方向に沿って1Dを適用し、パラメータは行または列間で共有される。
66Mパラメータにスケールアップする際、sMLPNetは83.4%のトップ-1精度を達成しており、これは最先端のSwin Transformerと同等である。
論文 参考訳(メタデータ) (2021-09-12T04:05:15Z) - Sparse-MLP: A Fully-MLP Architecture with Conditional Computation [7.901786481399378]
厳密な条件計算を伴うMoE(Mixture-of-Experts)は、注意に基づくモデルを、同等の計算コストでより多くのパラメータに拡張するための効果的なアーキテクチャであることが証明されている。
我々は、より効率的なアーキテクチャを実現するために、最近のMixerモデルをMoEで拡張するSparse-MLPを提案する。
論文 参考訳(メタデータ) (2021-09-05T06:43:08Z) - S$^2$-MLP: Spatial-Shift MLP Architecture for Vision [34.47616917228978]
近年、視覚変換器(ViT)とその後続の作業は、畳み込みを放棄し、自己注意操作を活用している。
本稿では,空間シフト(S$2$-MLP)という新しい純粋アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-06-14T15:05:11Z) - RepMLP: Re-parameterizing Convolutions into Fully-connected Layers for
Image Recognition [123.59890802196797]
画像認識のための多層パーセプトロン型ニューラルネットワーク構築ブロックであるRepMLPを提案する。
トレーニング中にRepMLP内に畳み込み層を構築し,それをFCにマージして推論を行う。
従来のCNNにRepMLPを挿入することで、ImageNetでは1.8%の精度、顔認識では2.9%、FLOPの低いCityscapeでは2.3%のmIoUを改善します。
論文 参考訳(メタデータ) (2021-05-05T06:17:40Z) - MLP-Mixer: An all-MLP Architecture for Vision [93.16118698071993]
マルチ層パーセプトロン(MLP)を基盤としたアーキテクチャ「Mixer」を発表。
Mixerはイメージ分類ベンチマークで競合スコアを獲得し、事前トレーニングと推論は最先端のモデルに匹敵する。
論文 参考訳(メタデータ) (2021-05-04T16:17:21Z) - Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance
Fields [45.84983186882732]
mip-NeRF"("mipmap")は、NeRFを拡張してシーンを継続的に価値あるスケールで表現します。
mip-NeRFは、光線の代わりにアンチエイリアスコニカルフラストを効率的にレンダリングすることで、不快なエイリアスアーティファクトを低減します。
NeRFと比較して、mip-NeRFはNeRFで提示されたデータセットでは平均エラー率を16%、そのデータセットでは60%削減する。
論文 参考訳(メタデータ) (2021-03-24T18:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。