論文の概要: NAS-NeRF: Generative Neural Architecture Search for Neural Radiance
Fields
- arxiv url: http://arxiv.org/abs/2309.14293v1
- Date: Mon, 25 Sep 2023 17:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 14:27:54.426333
- Title: NAS-NeRF: Generative Neural Architecture Search for Neural Radiance
Fields
- Title(参考訳): NAS-NeRF:ニューラルラジアンスフィールドのための生成型ニューラルアーキテクチャ探索
- Authors: Saeejith Nair, Yuhao Chen, Mohammad Javad Shafiee, Alexander Wong
- Abstract要約: NAS-NeRFは, シーンごとのNeRFアーキテクチャ生成に適した生成型ニューラルアーキテクチャ探索戦略である。
実験の結果、NAS-NeRFは5.74$times$より小さく、FLOPは4.19$times$、GPUでは1.93$times$はベースラインのNeRFよりも高速であることがわかった。
- 参考スコア(独自算出の注目度): 75.28756910744447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural radiance fields (NeRFs) enable high-quality novel view synthesis, but
their prohibitively high computational complexity limits deployability,
especially on resource-constrained platforms. To enable practical usage of
NeRFs, quality tuning is essential to reduce computational complexity, akin to
adjustable graphics settings in video games. However while existing solutions
strive for efficiency, they use one-size-fits-all architectures regardless of
scene complexity, although the same architecture may be unnecessarily large for
simple scenes but insufficient for complex ones. Thus as NeRFs become more
widely used for 3D visualization, there is a need to dynamically optimize the
neural network component of NeRFs to achieve a balance between computational
complexity and specific targets for synthesis quality. Addressing this gap, we
introduce NAS-NeRF: a generative neural architecture search strategy uniquely
tailored to generate NeRF architectures on a per-scene basis by optimizing the
trade-off between complexity and performance, while adhering to constraints on
computational budget and minimum synthesis quality. Our experiments on the
Blender synthetic dataset show the proposed NAS-NeRF can generate architectures
up to 5.74$\times$ smaller, with 4.19$\times$ fewer FLOPs, and 1.93$\times$
faster on a GPU than baseline NeRFs, without suffering a drop in SSIM.
Furthermore, we illustrate that NAS-NeRF can also achieve architectures up to
23$\times$ smaller, 22$\times$ fewer FLOPs, and 4.7$\times$ faster than
baseline NeRFs with only a 5.3\% average SSIM drop. The source code for our
work is also made publicly available at
https://saeejithnair.github.io/NAS-NeRF.
- Abstract(参考訳): neural radiance fields (nerfs)は高品質な新規なビュー合成を可能にするが、その計算複雑性は、特にリソース制約のあるプラットフォームにおいて、デプロイ可能性を制限する。
NeRFを実用化するためには、ビデオゲームにおける調整可能なグラフィック設定と同様に、計算複雑性を低減するために品質調整が不可欠である。
しかし、既存のソリューションは効率を追求する一方で、シーンの複雑さに関係なく全てのアーキテクチャに適合するが、同じアーキテクチャは単純なシーンでは必要以上に大きいが、複雑なシーンでは不十分である。
このように、NeRFが3D視覚化に広く使われるようになるにつれて、計算複雑性と合成品質の特定の目標とのバランスを達成するために、NeRFのニューラルネットワークコンポーネントを動的に最適化する必要がある。
計算予算と最小合成品質の制約を順守しつつ、複雑性と性能のトレードオフを最適化し、一場面ごとにNeRFアーキテクチャを生成するために一意に調整された生成型ニューラルネットワーク探索戦略であるNAS-NeRFを導入する。
Blender の合成データセットを用いた実験により,提案したNAS-NeRF は 5.74$\times$ より小さく,4.19$\times$ FLOPs が小さく,1.93$\times$ がベースライン NeRF よりも高速で,SSIM の低下に悩まされることなく,アーキテクチャを生成可能であることが示された。
さらに,NAS-NeRFは最大23$\times$より小さく,22$\times$より小さいFLOP,4.7$\times$はベースラインのNeRFよりも高速で,平均SSIMドロップは5.3\%であることを示す。
私たちの仕事のソースコードもhttps://saeejithnair.github.io/nas-nerfで公開されています。
関連論文リスト
- RNC: Efficient RRAM-aware NAS and Compilation for DNNs on Resource-Constrained Edge Devices [0.30458577208819987]
我々は抵抗性ランダムアクセスメモリ(RRAM)に基づく加速器のためのエッジフレンドリーなディープニューラルネットワーク(DNN)の開発を目指している。
本稿では,特定のハードウェア制約を満たす最適化ニューラルネットワークを探索するための,エッジコンパイルとリソース制約付きRRAM対応ニューラルネットワーク探索(NAS)フレームワークを提案する。
NASが速度に最適化した結果のモデルは5x-30倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2024-09-27T15:35:36Z) - How Far Can We Compress Instant-NGP-Based NeRF? [45.88543996963832]
我々は、記憶に優しいNeRF表現を提供するために、Context-based NeRF Compression (CNC)フレームワークを導入する。
我々は、より優れたコンテキストモデリングのための強力な事前知識として、ハッシュ衝突と占有グリッドを利用する。
86.7%,82.3%のストレージサイズ削減を実現した。
論文 参考訳(メタデータ) (2024-06-06T14:16:03Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - SPARF: Large-Scale Learning of 3D Sparse Radiance Fields from Few Input
Images [62.64942825962934]
本稿では、新しいビュー合成のための大規模ShapeNetベースの合成データセットであるSPARFを提案する。
少数の視点からスパースボクセル放射場を生成することを学習する新しいパイプライン(SuRFNet)を提案する。
SuRFNetは、少数の/1画像からの部分的なSRFと特別なSRF損失を用いて、高品質なボクセル放射場を生成することを学ぶ。
論文 参考訳(メタデータ) (2022-12-18T14:56:22Z) - SinNeRF: Training Neural Radiance Fields on Complex Scenes from a Single
Image [85.43496313628943]
本稿では,一眼レフ(SinNeRF)フレームワークについて述べる。
SinNeRFは半教師付き学習プロセスを構築し,幾何学的擬似ラベルを導入・伝播する。
NeRF合成データセット、Local Light Field Fusionデータセット、DTUデータセットなど、複雑なシーンベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2022-04-02T19:32:42Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - A Power-Efficient Binary-Weight Spiking Neural Network Architecture for
Real-Time Object Classification [1.5291703721641183]
エッジプラットフォーム上での低消費電力リアルタイムオブジェクト分類のための二元重スパイクニューラルネットワーク(BW-SNN)ハードウェアアーキテクチャを提案する。
この設計では、完全なニューラルネットワークをオンチップに格納するので、オフチップの帯域幅を必要としない。
論文 参考訳(メタデータ) (2020-03-12T11:25:00Z) - Deep Learning in Memristive Nanowire Networks [0.0]
MN3(Memristive Nanowire Neural Network)と呼ばれる新しいハードウェアアーキテクチャは、非常に広くスパースなニューラルネットワーク層をシミュレートするための効率的なアーキテクチャとして最近紹介された。
我々は,MN3が合成,勾配伝搬,重み更新を行うことができることを示す。
論文 参考訳(メタデータ) (2020-03-03T20:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。