論文の概要: Fast and Generalizable NeRF Architecture Selection for Satellite Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2603.18306v1
- Date: Wed, 18 Mar 2026 21:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.86078
- Title: Fast and Generalizable NeRF Architecture Selection for Satellite Scene Reconstruction
- Title(参考訳): 衛星シーン再構成のための高速で一般化可能なNeRFアーキテクチャ選択
- Authors: Devjyoti Chakraborty, Zaki Sukma, Rakandhiya D. Rachmanto, Kriti Ghosh, In Kee Kim, Suchendra M. Bhandarkar, Lakshmish Ramaswamy, Nancy K. O'Hare, Deepak Mishra,
- Abstract要約: 軽量な幾何および測光ディスクリプタを用いたトレーニングに先立って,NeRF品質を推定するフレームワークであるPreSCANを開発した。
PreSCANは1dB予測エラーで30秒で適切なアーキテクチャを選択し、NASよりも1000$times$スピードアップを達成した。
DFC 2019データセットの実験では、PreSCANが再トレーニングなしで様々な衛星シーンを一般化していることを確認した。
- 参考スコア(独自算出の注目度): 7.142292089457896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRF) have emerged as a powerful approach for photorealistic 3D reconstruction from multi-view images. However, deploying NeRF for satellite imagery remains challenging. Each scene requires individual training, and optimizing architectures via Neural Architecture Search (NAS) demands hours to days of GPU time. While existing approaches focus on architectural improvements, our SHAP analysis reveals that multi-view consistency, rather than model architecture, determines reconstruction quality. Based on this insight, we develop PreSCAN, a predictive framework that estimates NeRF quality prior to training using lightweight geometric and photometric descriptors. PreSCAN selects suitable architectures in < 30 seconds with < 1 dB prediction error, achieving 1000$\times$ speedup over NAS. We further demonstrate PreSCAN's deployment utility on edge platforms (Jetson Orin), where combining its predictions with offline cost profiling reduces inference power by 26% and latency by 43% with minimal quality loss. Experiments on DFC2019 datasets confirm that PreSCAN generalizes across diverse satellite scenes without retraining.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、多視点画像からの光現実的3次元再構成のための強力なアプローチとして登場した。
しかし、衛星画像へのNeRFの展開は依然として困難である。
各シーンは個別のトレーニングを必要とし、ニューラルネットワークサーチ(NAS)を介してアーキテクチャを最適化するには、何時間から何日もGPU時間を必要とする。
既存のアプローチはアーキテクチャの改善に重点を置いているが、SHAP分析により、モデルアーキテクチャではなく、複数ビューの一貫性が再構築品質を決定することが明らかになった。
この知見に基づいて,軽量な幾何および測光ディスクリプタを用いたトレーニング前のNeRF品質を推定する予測フレームワークであるPreSCANを開発した。
PreSCANは1dBの予測エラーで30秒未満で適切なアーキテクチャを選択し、NASよりも1000$\times$スピードアップを達成した。
さらに、エッジプラットフォーム(Jetson Orin)上のPreSCANのデプロイユーティリティについても、予測とオフラインコストプロファイリングを組み合わせることで、推論パワーを26%削減し、レイテンシを43%削減し、最小品質の損失を最小化します。
DFC2019データセットの実験は、PreSCANが再トレーニングなしで様々な衛星シーンを一般化していることを確認した。
関連論文リスト
- Towards Degradation-Robust Reconstruction in Generalizable NeRF [58.33351079982745]
GNeRF(Generalizable Radiance Field)は,シーンごとの最適化を回避する手段として有効であることが証明されている。
GNeRFの強靭性は, ソース画像に現れる様々な種類の劣化に対して限定的に研究されている。
論文 参考訳(メタデータ) (2024-11-18T16:13:47Z) - MomentsNeRF: Leveraging Orthogonal Moments for Few-Shot Neural Rendering [4.6786468967610055]
ニューラルレンダリングのための新しいフレームワークであるMomentsNeRFを提案する。
当社のアーキテクチャは,マルチシーンでトレーニングを行うための新しいトランスファー学習手法を提供する。
我々のアプローチは、Gabor や Zernike のモーメントから抽出した機能をうまく活用する最初の方法です。
論文 参考訳(メタデータ) (2024-07-02T21:02:48Z) - BirdNeRF: Fast Neural Reconstruction of Large-Scale Scenes From Aerial
Imagery [3.4956406636452626]
本研究では,空中画像を用いた大規模シーンの再構成に特化して設計されたNeRF(Neural Radiance Fields)の適応版であるBirdNeRFを紹介する。
本稿では,大規模な空中画像集合を複数小集合に分解し,空間分解アルゴリズムを提案する。
我々は、既存のデータセットと、独自のドローン映像に対するアプローチを評価し、従来のフォトグラムソフトウェアよりも10倍、最先端の大規模NeRFソリューションよりも50倍の再現速度を向上した。
論文 参考訳(メタデータ) (2024-02-07T03:18:34Z) - Generalizable Lightweight Proxy for Robust NAS against Diverse
Perturbations [59.683234126055694]
最近のニューラルアーキテクチャサーチ(NAS)フレームワークは、与えられた条件に対して最適なアーキテクチャを見つけるのに成功している。
クリーン画像と摂動画像の両方の特徴,パラメータ,勾配の整合性を考慮した,軽量で堅牢なゼロコストプロキシを提案する。
提案手法は,多種多様な摂動にまたがる堅牢性を示す一般化可能な特徴を学習可能な,効率的かつ迅速なニューラルアーキテクチャの探索を容易にする。
論文 参考訳(メタデータ) (2023-06-08T08:34:26Z) - EASNet: Searching Elastic and Accurate Network Architecture for Stereo
Matching [18.89677182772221]
ステレオマッチングのための弾性的かつ正確なネットワークをトレーニングすることを提案する。
EASNetは、さまざまなコンピューティング機能を持つデバイス上で、さまざまな3Dアーキテクチャ設定をサポートする。
我々の実験によると、EASNetは最先端の人間設計アーキテクチャとNASベースのアーキテクチャの両方より優れています。
論文 参考訳(メタデータ) (2022-07-20T10:26:18Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。