論文の概要: MCBlock: Boosting Neural Radiance Field Training Speed by MCTS-based Dynamic-Resolution Ray Sampling
- arxiv url: http://arxiv.org/abs/2504.09878v1
- Date: Mon, 14 Apr 2025 04:59:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:51:48.544854
- Title: MCBlock: Boosting Neural Radiance Field Training Speed by MCTS-based Dynamic-Resolution Ray Sampling
- Title(参考訳): MCBlock: MCTSを用いたダイナミックリゾリューション線サンプリングによる神経放射場訓練の高速化
- Authors: Yunpeng Tan, Junlin Hao, Jiangkai Wu, Liming Liu, Qingyang Li, Xinggong Zhang,
- Abstract要約: そこで本研究では,動的分解能線サンプリングアルゴリズムであるMCBlockを提案する。
MCBlockは最大2.33倍のトレーニング加速を実現し、他のレイサンプリングアルゴリズムを上回っている。
MCBlockは任意のコーントレーシングNeRFモデルに適用でき、マルチメディアコミュニティに貢献できると考えています。
- 参考スコア(独自算出の注目度): 9.796129038118499
- License:
- Abstract: Neural Radiance Field (NeRF) is widely known for high-fidelity novel view synthesis. However, even the state-of-the-art NeRF model, Gaussian Splatting, requires minutes for training, far from the real-time performance required by multimedia scenarios like telemedicine. One of the obstacles is its inefficient sampling, which is only partially addressed by existing works. Existing point-sampling algorithms uniformly sample simple-texture regions (easy to fit) and complex-texture regions (hard to fit), while existing ray-sampling algorithms sample these regions all in the finest granularity (i.e. the pixel level), both wasting GPU training resources. Actually, regions with different texture intensities require different sampling granularities. To this end, we propose a novel dynamic-resolution ray-sampling algorithm, MCBlock, which employs Monte Carlo Tree Search (MCTS) to partition each training image into pixel blocks with different sizes for active block-wise training. Specifically, the trees are initialized according to the texture of training images to boost the initialization speed, and an expansion/pruning module dynamically optimizes the block partition. MCBlock is implemented in Nerfstudio, an open-source toolset, and achieves a training acceleration of up to 2.33x, surpassing other ray-sampling algorithms. We believe MCBlock can apply to any cone-tracing NeRF model and contribute to the multimedia community.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、高忠実なノベルビュー合成で広く知られている。
しかし、最先端のNeRFモデルであるGaussian Splattingでさえ、遠隔医療のようなマルチメディアシナリオで要求されるリアルタイムのパフォーマンスとはかけ離れた、トレーニングに数分を要する。
障害の1つは非効率なサンプリングであり、これは既存の研究によって部分的に解決されているだけである。
既存の点サンプリングアルゴリズムは、単純なテクスチャ領域(適合し易い)と複雑なテクスチャ領域(適合し難い)を一様にサンプリングする一方、既存のレイサンプリングアルゴリズムは、これらすべての領域を最も細かい粒度(ピクセルレベル)でサンプリングし、どちらもGPUトレーニングリソースを浪費する。
実際には、異なるテクスチャ強度を持つ領域は、異なるサンプリング粒度を必要とする。
そこで本研究では,モンテカルロ木探索 (MCTS) を用いた動的分解能線サンプリングアルゴリズム MCBlock を提案する。
具体的には、初期化速度を高めるために、トレーニング画像のテクスチャに応じて木を初期化し、拡張/実行モジュールがブロック分割を動的に最適化する。
MCBlockはオープンソースのツールセットであるNerfstudioで実装されており、トレーニングアクセラレーションは2.33倍に達し、他のレイサンプリングアルゴリズムを上回っている。
MCBlockは任意のコーントレーシングNeRFモデルに適用でき、マルチメディアコミュニティに貢献できると考えています。
関連論文リスト
- ProNeRF: Learning Efficient Projection-Aware Ray Sampling for
Fine-Grained Implicit Neural Radiance Fields [27.008124938806944]
メモリフットプリント(NeRFに似ている)、スピード(HyperReelより速い)、品質(K-Planesより速い)の最適なトレードオフを提供するProNeRFを提案する。
我々のProNeRFは最先端の計測値であり、最も優れたサンプルベース手法であるHyperReelよりも15-23倍高速で、PSNRは0.65dB高く、PSNRは0.95dB高い。
論文 参考訳(メタデータ) (2023-12-13T13:37:32Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - SCALAR-NeRF: SCAlable LARge-scale Neural Radiance Fields for Scene
Reconstruction [66.69049158826677]
本稿では,スケーラブルな大規模ニューラルシーン再構築に適した新しいフレームワークであるSCALAR-NeRFを紹介する。
ニューラル表現をエンコーダ・デコーダアーキテクチャとして構成し、そこではエンコーダが3次元点座標を処理してエンコーダ化された特徴を生成する。
そこで本研究では,これらの局所モデルから出力を抽出し,最終的な再構築を実現するための効率的かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T10:18:16Z) - Adaptive Multi-NeRF: Exploit Efficient Parallelism in Adaptive Multiple
Scale Neural Radiance Field Rendering [3.8200916793910973]
ニューラル・ラジアンス・フィールド(NeRF)の最近の進歩は、3次元シーンの出現を暗黙のニューラルネットワークとして表す重要な可能性を示している。
しかし、長いトレーニングとレンダリングのプロセスは、リアルタイムレンダリングアプリケーションにこの有望なテクニックを広く採用することを妨げる。
本稿では,大規模シーンのニューラルネットワークレンダリングプロセスの高速化を目的とした適応型マルチNeRF手法を提案する。
論文 参考訳(メタデータ) (2023-10-03T08:34:49Z) - DARF: Depth-Aware Generalizable Neural Radiance Field [51.29437249009986]
本稿では,Depth-Aware Dynamic Smpling(DADS)戦略を用いたDARF(Depth-Aware Generalizable Neural Radiance Field)を提案する。
筆者らのフレームワークは,数枚の入力画像で,画素レベルと幾何学レベルの両方の見えないシーンを推測する。
DARFは、最先端の一般化可能なNeRF法と比較して、レンダリング品質と深さ推定を改善しつつ、サンプルを50%削減する。
論文 参考訳(メタデータ) (2022-12-05T14:00:59Z) - EfficientNeRF: Efficient Neural Radiance Fields [63.76830521051605]
我々は,3次元シーンを表現し,新しい映像を合成する効率的なNeRF法として,EfficientNeRFを提案する。
本手法は, トレーニング時間の88%以上を短縮し, 200FPS以上のレンダリング速度を達成できるが, 競争精度は高い。
論文 参考訳(メタデータ) (2022-06-02T05:36:44Z) - Dynamic Sampling Rate: Harnessing Frame Coherence in Graphics
Applications for Energy-Efficient GPUs [1.0433988610452742]
本研究は,グラフィックアプリケーションの冗長性を低減し,エネルギー効率を向上させるハードウェア機構である動的サンプリングレート(DSR)を提案する。
DSRで拡張された最先端のモバイルGPUアーキテクチャの性能を多種多様なアプリケーションで評価する。
論文 参考訳(メタデータ) (2022-02-21T21:15:14Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - FarSee-Net: Real-Time Semantic Segmentation by Efficient Multi-scale
Context Aggregation and Feature Space Super-resolution [14.226301825772174]
Cascaded Factorized Atrous Space Pyramid Pooling (CF-ASPP) と呼ばれる新しい効率的なモジュールについて紹介する。
これは畳み込みニューラルネットワーク(CNN)のための軽量なカスケード構造であり、コンテキスト情報を効率的に活用する。
我々は1枚のNivida Titan X (Maxwell) GPUカードでCityscapesテストセットの84fpsで68.4% mIoUを達成した。
論文 参考訳(メタデータ) (2020-03-09T03:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。