論文の概要: NAS-NeRF: Generative Neural Architecture Search for Neural Radiance
Fields
- arxiv url: http://arxiv.org/abs/2309.14293v3
- Date: Mon, 11 Dec 2023 16:01:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 22:18:26.383817
- Title: NAS-NeRF: Generative Neural Architecture Search for Neural Radiance
Fields
- Title(参考訳): NAS-NeRF:ニューラルラジアンスフィールドのための生成型ニューラルアーキテクチャ探索
- Authors: Saeejith Nair, Yuhao Chen, Mohammad Javad Shafiee, Alexander Wong
- Abstract要約: ニューラルレイディアンス場(NeRF)は、高品質な新規ビュー合成を可能にするが、その高い計算複雑性はデプロイ可能性を制限する。
NAS-NeRFは,コンパクトでシーン特異的なNeRFアーキテクチャを生成する生成型ニューラルアーキテクチャ探索戦略である。
本手法では,各シーンに適したアーキテクチャを探索するために,対象の指標と予算に制約を組み込む。
- 参考スコア(独自算出の注目度): 75.28756910744447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural radiance fields (NeRFs) enable high-quality novel view synthesis, but
their high computational complexity limits deployability. While existing
neural-based solutions strive for efficiency, they use one-size-fits-all
architectures regardless of scene complexity. The same architecture may be
unnecessarily large for simple scenes but insufficient for complex ones. Thus,
there is a need to dynamically optimize the neural network component of NeRFs
to achieve a balance between computational complexity and specific targets for
synthesis quality. We introduce NAS-NeRF, a generative neural architecture
search strategy that generates compact, scene-specialized NeRF architectures by
balancing architecture complexity and target synthesis quality metrics. Our
method incorporates constraints on target metrics and budgets to guide the
search towards architectures tailored for each scene. Experiments on the
Blender synthetic dataset show the proposed NAS-NeRF can generate architectures
up to 5.74$\times$ smaller, with 4.19$\times$ fewer FLOPs, and 1.93$\times$
faster on a GPU than baseline NeRFs, without suffering a drop in SSIM.
Furthermore, we illustrate that NAS-NeRF can also achieve architectures up to
23$\times$ smaller, with 22$\times$ fewer FLOPs, and 4.7$\times$ faster than
baseline NeRFs with only a 5.3% average SSIM drop. Our source code is also made
publicly available at https://saeejithnair.github.io/NAS-NeRF.
- Abstract(参考訳): neural radiance fields (nerfs) は高品質の新規ビュー合成を可能にするが、高い計算複雑性によりデプロイ性が制限される。
既存のニューラルベースソリューションは効率を追求する一方で、シーンの複雑さに関係なく、ワンサイズのアーキテクチャを使用する。
同じアーキテクチャは単純なシーンでは不必要に大きいが、複雑なシーンでは不十分である。
したがって、nrfsのニューラルネットワークコンポーネントを動的に最適化し、計算複雑性と合成品質の特定のターゲットとのバランスをとる必要がある。
NAS-NeRFは、アーキテクチャの複雑さと合成品質の指標のバランスをとることで、コンパクトでシーン特異的なNeRFアーキテクチャを生成する。
本手法では,各シーンに適したアーキテクチャを探索するために,対象の指標と予算に制約を組み込む。
Blenderの合成データセットの実験では、提案されたNAS-NeRFは、SSIMが低下することなく、ベースラインのNeRFよりも高速なGPUで最大5.74$\times$より小さく、4.19$\times$より少ないFLOPと1.93$\times$でアーキテクチャを生成することができる。
さらに、NAS-NeRFは、最大23$\times$より小さく、22$\times$より少ないFLOPと4.7$\times$より高速で平均5.3%のSSIMドロップしか得られない。
ソースコードはhttps://saeejithnair.github.io/NAS-NeRF.comで公開されています。
関連論文リスト
- RNC: Efficient RRAM-aware NAS and Compilation for DNNs on Resource-Constrained Edge Devices [0.30458577208819987]
我々は抵抗性ランダムアクセスメモリ(RRAM)に基づく加速器のためのエッジフレンドリーなディープニューラルネットワーク(DNN)の開発を目指している。
本稿では,特定のハードウェア制約を満たす最適化ニューラルネットワークを探索するための,エッジコンパイルとリソース制約付きRRAM対応ニューラルネットワーク探索(NAS)フレームワークを提案する。
NASが速度に最適化した結果のモデルは5x-30倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2024-09-27T15:35:36Z) - How Far Can We Compress Instant-NGP-Based NeRF? [45.88543996963832]
我々は、記憶に優しいNeRF表現を提供するために、Context-based NeRF Compression (CNC)フレームワークを導入する。
我々は、より優れたコンテキストモデリングのための強力な事前知識として、ハッシュ衝突と占有グリッドを利用する。
86.7%,82.3%のストレージサイズ削減を実現した。
論文 参考訳(メタデータ) (2024-06-06T14:16:03Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - SPARF: Large-Scale Learning of 3D Sparse Radiance Fields from Few Input
Images [62.64942825962934]
本稿では、新しいビュー合成のための大規模ShapeNetベースの合成データセットであるSPARFを提案する。
少数の視点からスパースボクセル放射場を生成することを学習する新しいパイプライン(SuRFNet)を提案する。
SuRFNetは、少数の/1画像からの部分的なSRFと特別なSRF損失を用いて、高品質なボクセル放射場を生成することを学ぶ。
論文 参考訳(メタデータ) (2022-12-18T14:56:22Z) - SinNeRF: Training Neural Radiance Fields on Complex Scenes from a Single
Image [85.43496313628943]
本稿では,一眼レフ(SinNeRF)フレームワークについて述べる。
SinNeRFは半教師付き学習プロセスを構築し,幾何学的擬似ラベルを導入・伝播する。
NeRF合成データセット、Local Light Field Fusionデータセット、DTUデータセットなど、複雑なシーンベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2022-04-02T19:32:42Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - A Power-Efficient Binary-Weight Spiking Neural Network Architecture for
Real-Time Object Classification [1.5291703721641183]
エッジプラットフォーム上での低消費電力リアルタイムオブジェクト分類のための二元重スパイクニューラルネットワーク(BW-SNN)ハードウェアアーキテクチャを提案する。
この設計では、完全なニューラルネットワークをオンチップに格納するので、オフチップの帯域幅を必要としない。
論文 参考訳(メタデータ) (2020-03-12T11:25:00Z) - Deep Learning in Memristive Nanowire Networks [0.0]
MN3(Memristive Nanowire Neural Network)と呼ばれる新しいハードウェアアーキテクチャは、非常に広くスパースなニューラルネットワーク層をシミュレートするための効率的なアーキテクチャとして最近紹介された。
我々は,MN3が合成,勾配伝搬,重み更新を行うことができることを示す。
論文 参考訳(メタデータ) (2020-03-03T20:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。