論文の概要: SlimmeRF: Slimmable Radiance Fields
- arxiv url: http://arxiv.org/abs/2312.10034v1
- Date: Fri, 15 Dec 2023 18:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 14:33:18.430124
- Title: SlimmeRF: Slimmable Radiance Fields
- Title(参考訳): slimmerf:スリム化可能なラミアンスフィールド
- Authors: Shiran Yuan and Hao Zhao
- Abstract要約: SlimmeRFは,スリム化によるモデルサイズと精度のトレードオフを瞬時に行うことができるモデルである。
我々はまた、スパースビューのシナリオにおいてより効果的なトレードオフを可能にし、スリム化後に高い精度を達成できることも観察した。
- 参考スコア(独自算出の注目度): 4.743863123290521
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Field (NeRF) and its variants have recently emerged as
successful methods for novel view synthesis and 3D scene reconstruction.
However, most current NeRF models either achieve high accuracy using large
model sizes, or achieve high memory-efficiency by trading off accuracy. This
limits the applicable scope of any single model, since high-accuracy models
might not fit in low-memory devices, and memory-efficient models might not
satisfy high-quality requirements. To this end, we present SlimmeRF, a model
that allows for instant test-time trade-offs between model size and accuracy
through slimming, thus making the model simultaneously suitable for scenarios
with different computing budgets. We achieve this through a newly proposed
algorithm named Tensorial Rank Incrementation (TRaIn) which increases the rank
of the model's tensorial representation gradually during training. We also
observe that our model allows for more effective trade-offs in sparse-view
scenarios, at times even achieving higher accuracy after being slimmed. We
credit this to the fact that erroneous information such as floaters tend to be
stored in components corresponding to higher ranks. Our implementation is
available at https://github.com/Shiran-Yuan/SlimmeRF.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)とその変種は、新しいビュー合成と3次元シーン再構成の手法として最近登場した。
しかし、現在のほとんどのNeRFモデルは、大きなモデルサイズを使用して高い精度を達成するか、精度をトレードオフすることで高いメモリ効率を達成する。
高い精度のモデルは低メモリデバイスには適合せず、メモリ効率のよいモデルは高品質の要求を満たすことができない。
そこで本研究では,スリム化によるモデルサイズと精度のトレードオフを瞬時に行うためのモデルであるslimmerfを提案する。
我々は、トレーニング中にモデルのテンソル表現のランクを徐々に上昇させるTRaIn(Tensorial Rank Incrementation)というアルゴリズムによってこれを達成した。
我々はまた、スパースビューシナリオにおいてより効果的なトレードオフを可能にし、スリム化後に高い精度を達成できることも観察した。
これは,フローターなどの誤情報が,上位層に対応する構成要素に格納される傾向があるためである。
実装はhttps://github.com/Shiran-Yuan/SlimmeRF.comで公開しています。
関連論文リスト
- ELMGS: Enhancing memory and computation scaLability through coMpression for 3D Gaussian Splatting [16.373800112150573]
3Dモデルは最近、Neural Radiance Fieldsと3D Gaussian Splatting Modelによって提供されるエンドツーエンドトレーニングの可能性によって普及した。
本稿では,そのようなモデルのメモリと計算のスケーラビリティを両立させる手法を提案する。
一般的なベンチマークでは,提案手法の有効性を実証し,資源制約のあるデバイス上でも,そのようなソリューションの広範な展開可能性への道を開く。
論文 参考訳(メタデータ) (2024-10-30T17:01:28Z) - Deep learning for model correction of dynamical systems with data scarcity [0.0]
本稿では,少ない高忠実度データセットのみを用いて,既存の力学系モデルを修正するためのディープラーニングフレームワークを提案する。
我々は、高忠実度データの量が非常に小さく、既存のデータ駆動モデリング手法のほとんどを適用できない場合に焦点を当てる。
論文 参考訳(メタデータ) (2024-10-23T14:33:11Z) - ProvNeRF: Modeling per Point Provenance in NeRFs as a Stochastic Field [52.09661042881063]
テキストフィールドとしてNeRFのbfprovenance(可視な位置)をモデル化する手法を提案する。
我々は、NeRF最適化におけるポイントごとの精度のモデリングにより、新しいビュー合成と不確実性推定の改善につながる情報により、モデルが強化されることを示す。
論文 参考訳(メタデータ) (2024-01-16T06:19:18Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Model soups: averaging weights of multiple fine-tuned models improves
accuracy without increasing inference time [69.7693300927423]
複数モデルの重み付けを異なるパラメータ構成で微調整することにより,精度とロバスト性が向上することを示す。
モデルスープ手法は,複数の画像分類や自然言語処理タスクにまで拡張されている。
論文 参考訳(メタデータ) (2022-03-10T17:03:49Z) - Load-balanced Gather-scatter Patterns for Sparse Deep Neural Networks [20.374784902476318]
モデル重み付けにゼロを導入する方法として, モデル精度と計算効率のトレードオフを良好に提供する方法として, プルーニングが有効であることが示されている。
現代のプロセッサには、高速なオンチップスクラッチパッドメモリと、間接的に負荷を発生させ、そのようなメモリ上の操作を格納する集/散乱エンジンが備わっている。
本研究では,スクラッチパッドメモリと集合/散乱エンジンを利用して,ニューラルネットワークの推論を高速化する,新しいスパースパターン(GSパターン)を提案する。
論文 参考訳(メタデータ) (2021-12-20T22:55:45Z) - Real-time Human Detection Model for Edge Devices [0.0]
畳み込みニューラルネットワーク(CNN)は、検出と分類タスクにおいて、従来の特徴抽出と機械学習モデルを置き換える。
最近、リアルタイムタスクのために軽量CNNモデルが導入されている。
本稿では,Raspberry Piのような限られたエッジデバイスに適合するCNNベースの軽量モデルを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:42:17Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - Diet deep generative audio models with structured lottery [2.348805691644086]
本研究では,深層再生音声モデルにおける抽選チケット仮説について検討する。
モデル重量の最大95%を精度を著しく低下させることなく除去できることを示す。
本稿では,組込みプラットフォーム上でのディープ・ジェネレーティブ・オーディオ・モデルの実装の可能性について論じる。
論文 参考訳(メタデータ) (2020-07-31T16:43:10Z) - Dynamic Model Pruning with Feedback [64.019079257231]
余分なオーバーヘッドを伴わずにスパーストレーニングモデルを生成する新しいモデル圧縮法を提案する。
CIFAR-10 と ImageNet を用いて本手法の評価を行い,得られたスパースモデルが高密度モデルの最先端性能に到達可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T15:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。