論文の概要: Neural Pruning for 3D Scene Reconstruction: Efficient NeRF Acceleration
- arxiv url: http://arxiv.org/abs/2504.00950v2
- Date: Mon, 07 Apr 2025 21:37:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:26:21.574102
- Title: Neural Pruning for 3D Scene Reconstruction: Efficient NeRF Acceleration
- Title(参考訳): 3次元シーン再構成のためのニューラルプルーニング
- Authors: Tianqi Ding, Dawei Xiang, Pablo Rivas, Liang Dong,
- Abstract要約: 本稿では,これらの問題に対処するための戦略としてニューラルプルーニングについて検討する。
我々は,一様サンプリング,重要度に基づく手法,コアセットに基づく手法などのプルーニング手法を比較し,モデルサイズを削減し,トレーニングを高速化する。
その結果,コアセット駆動プルーニングはモデルサイズを50%削減し,トレーニングでは35%の高速化を実現し,精度はわずかに低下した。
- 参考スコア(独自算出の注目度): 0.2682592966402944
- License:
- Abstract: Neural Radiance Fields (NeRF) have become a popular 3D reconstruction approach in recent years. While they produce high-quality results, they also demand lengthy training times, often spanning days. This paper studies neural pruning as a strategy to address these concerns. We compare pruning approaches, including uniform sampling, importance-based methods, and coreset-based techniques, to reduce the model size and speed up training. Our findings show that coreset-driven pruning can achieve a 50% reduction in model size and a 35% speedup in training, with only a slight decrease in accuracy. These results suggest that pruning can be an effective method for improving the efficiency of NeRF models in resource-limited settings.
- Abstract(参考訳): 近年,Neural Radiance Fields (NeRF) は3次元再構成手法として人気を博している。
高品質な結果をもたらす一方で、長いトレーニング時間も要求する。
本稿では,これらの問題に対処するための戦略としてニューラルプルーニングについて検討する。
我々は,一様サンプリング,重要度に基づく手法,コアセットに基づく手法などのプルーニング手法を比較し,モデルサイズを削減し,トレーニングを高速化する。
その結果,コアセット駆動プルーニングはモデルサイズを50%削減し,トレーニングでは35%の高速化を実現し,精度はわずかに低下した。
これらの結果から,資源制限条件下でのNeRFモデルの効率向上には,プルーニングが有効であることが示唆された。
関連論文リスト
- Trimming the Fat: Efficient Compression of 3D Gaussian Splats through Pruning [17.097742540845672]
脂肪を磨く」とは、モデルに符号化された余分な情報を除去する、ポストホックな勾配インフォームド・イテレーティブ・プルーニング技術である。
提案手法は,ベースラインモデルに類似した性能を維持しつつ,約50$times$圧縮を実現し,最大600FPSの高速化を実現している。
論文 参考訳(メタデータ) (2024-06-26T09:57:55Z) - Evaluating Neural Radiance Fields (NeRFs) for 3D Plant Geometry Reconstruction in Field Conditions [9.778062537712406]
各種環境における植物の3次元再構成のための異なるニューラルレージアンスフィールド(NeRF)技術の評価を行った。
NeRFモデルは、GPUで30分トレーニングした後、74.6%のF1スコアを達成している。
我々は,平均F1スコアの7.4%の低下を達成しつつ,ほぼ半分のトレーニング時間を短縮するNeRFトレーニングの早期停止手法を提案する。
論文 参考訳(メタデータ) (2024-02-15T22:17:17Z) - Sample Less, Learn More: Efficient Action Recognition via Frame Feature
Restoration [59.6021678234829]
本稿では,2つのスパースサンプリングおよび隣接するビデオフレームの中間特徴を復元する新しい手法を提案する。
提案手法の統合により, 一般的な3つのベースラインの効率は50%以上向上し, 認識精度は0.5%低下した。
論文 参考訳(メタデータ) (2023-07-27T13:52:42Z) - Efficient Diffusion Training via Min-SNR Weighting Strategy [78.5801305960993]
拡散学習をマルチタスク学習問題として扱い,Min-SNR-$gamma$と呼ばれるシンプルなアプローチを導入する。
本結果は,従来の重み付け手法よりも3.4$times$高速で収束速度が大幅に向上したことを示す。
さらに効果的で、ImageNetの256times256$ベンチマークで2.06の新たなFIDスコアを達成した。
論文 参考訳(メタデータ) (2023-03-16T17:59:56Z) - EfficientNeRF: Efficient Neural Radiance Fields [63.76830521051605]
我々は,3次元シーンを表現し,新しい映像を合成する効率的なNeRF法として,EfficientNeRFを提案する。
本手法は, トレーニング時間の88%以上を短縮し, 200FPS以上のレンダリング速度を達成できるが, 競争精度は高い。
論文 参考訳(メタデータ) (2022-06-02T05:36:44Z) - RGB-D Neural Radiance Fields: Local Sampling for Faster Training [0.8223798883838329]
神経放射場(NeRF)を用いた画像からの暗黙的神経表現の最近の進歩は有望な結果を示している。
以前のNeRFベースの手法のいくつかの制限は、長いトレーニング時間と、基礎となる幾何の不正確さである。
本稿では,より高速なトレーニング時間を実現するために,深度誘導型局所サンプリング戦略とより小さなニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-03-26T11:31:35Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Pruning with Compensation: Efficient Channel Pruning for Deep
Convolutional Neural Networks [0.9712140341805068]
刈り込みDCNNのコストを大幅に削減する高効率刈り込み法を提案する。
本手法は,最先端のリトレーニングベースプルーニング法と競合するプルーニング性能を示す。
論文 参考訳(メタデータ) (2021-08-31T10:17:36Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Enabling Retrain-free Deep Neural Network Pruning using Surrogate
Lagrangian Relaxation [2.691929135895278]
サロゲート・ラグランジアン・リラクゼーション(SLR)に基づく体系的な軽量化最適化手法を開発。
SLRは、同じ精度で最先端技術よりも高い圧縮率を達成する。
再学習の予算が限られているため,本手法はモデル精度を迅速に回復する。
論文 参考訳(メタデータ) (2020-12-18T07:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。