論文の概要: LiteVoxel: Low-memory Intelligent Thresholding for Efficient Voxel Rasterization
- arxiv url: http://arxiv.org/abs/2511.02510v1
- Date: Tue, 04 Nov 2025 11:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.982132
- Title: LiteVoxel: Low-memory Intelligent Thresholding for Efficient Voxel Rasterization
- Title(参考訳): LiteVoxel: 効率的なVoxel Rasterizationのための低メモリインテリジェントなThresholding
- Authors: Jee Won Lee, Jongseong Brad Choi,
- Abstract要約: LiteVoxelは,SVizationをよりスタイリッシュかつ軽量にするための,セルフチューニングのトレーニングパイプラインだ。
SVRasterパイプラインに匹敵するPSNR/SSIM,トレーニング時間,FPSを維持しながら,低周波領域における誤差の軽減と境界不安定性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse-voxel rasterization is a fast, differentiable alternative for optimization-based scene reconstruction, but it tends to underfit low-frequency content, depends on brittle pruning heuristics, and can overgrow in ways that inflate VRAM. We introduce LiteVoxel, a self-tuning training pipeline that makes SV rasterization both steadier and lighter. Our loss is made low-frequency aware via an inverse-Sobel reweighting with a mid-training gamma-ramp, shifting gradient budget to flat regions only after geometry stabilize. Adaptation replaces fixed thresholds with a depth-quantile pruning logic on maximum blending weight, stabilized by EMA-hysteresis guards and refines structure through ray-footprint-based, priority-driven subdivision under an explicit growth budget. Ablations and full-system results across Mip-NeRF 360 (6scenes) and Tanks & Temples (3scenes) datasets show mitigation of errors in low-frequency regions and boundary instability while keeping PSNR/SSIM, training time, and FPS comparable to a strong SVRaster pipeline. Crucially, LiteVoxel reduces peak VRAM by ~40%-60% and preserves low-frequency detail that prior setups miss, enabling more predictable, memory-efficient training without sacrificing perceptual quality.
- Abstract(参考訳): Sparse-voxel rasterizationは最適化に基づくシーン再構成の高速で差別化可能な代替手段であるが、低周波コンテンツを過小評価する傾向がある。
SVラスタライズをスタイリッシュかつ軽量にするための,自己調整型トレーニングパイプラインである LiteVoxel を紹介した。
我々の損失は、中間トレーニングガンマランプによる逆ソベル再重み付けにより低周波化され、幾何安定化後のみ勾配予算を平坦領域にシフトさせる。
適応は、固定しきい値を最大混合重量の深さ量子プルーニング論理に置き換え、EMA-ヒステリシスガードによって安定化され、明示的な成長予算の下でレイフットプリントに基づく優先順位駆動のサブディビジョンを通して構造を洗練する。
Mip-NeRF 360 (6scenes) と Tanks & Temples (3scenes) データセット間のアブレーションとフルシステムの結果は、PSNR/SSIM、トレーニング時間、強力なSVRasterパイプラインに匹敵するFPSを維持しながら、低周波領域におけるエラーの緩和と境界不安定性を示している。
重要なことは、LiteVoxel はピーク VRAM を ~40%-60% 削減し、事前設定が失敗する低周波のディテールを保ち、知覚品質を犠牲にすることなく、より予測可能なメモリ効率のトレーニングを可能にする。
関連論文リスト
- Adaptive Time-step Training for Enhancing Spike-Based Neural Radiance Fields [6.66530903309279]
PATA(Pretrain-Adaptive Time-step Adjustment)と呼ばれる動的時間ステップトレーニング戦略を備えたスパイクベースのNeRFフレームワークを提案する。
PATAはレンダリングの忠実さを保ちつつ、推論時間ステップを64%減らし、電力を61.55%減らすことができることを示す。
論文 参考訳(メタデータ) (2025-07-30T18:56:24Z) - KV-Latent: Dimensional-level KV Cache Reduction with Frequency-aware Rotary Positional Embedding [72.12756830560217]
Transformer Decodersをベースとした大規模言語モデル(LLM)が、会話生成AIの選択肢として好まれている。
デコーダアーキテクチャの全体的な優位性にもかかわらず、推論中にキーバリューキャッシュが徐々に増加し、主要な効率ボトルネックとなっている。
キーバリューベクトル次元を潜在空間にダウンサンプリングすることで、KVキャッシュのフットプリントを大幅に削減し、推論速度を向上させることができる。
論文 参考訳(メタデータ) (2025-07-15T12:52:12Z) - Towards Lightest Low-Light Image Enhancement Architecture for Mobile Devices [3.7651572719063178]
モバイルおよび組み込みデバイス上でのリアルタイム低照度画像強調には、視覚的品質と計算効率のバランスをとるモデルが必要である。
大規模監視への依存を解消する超軽量無監督強化フレームワーク LiteIE を提案する。
LiteIEは、わずか58パラメータの4Kイメージで30 FPSで動作し、エッジデバイスへのリアルタイムデプロイメントを可能にする。
論文 参考訳(メタデータ) (2025-07-06T07:36:47Z) - LODGE: Level-of-Detail Large-Scale Gaussian Splatting with Efficient Rendering [75.67501939005119]
メモリ制約デバイス上での3次元ガウススプラッティングのための新しいレベル・オブ・ディーテール(LOD)法を提案する。
カメラ距離に基づいてガウスの最適部分集合を反復的に選択する。
本手法は,屋外(階層型3DGS)と屋内(Zip-NeRF)の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-05-29T06:50:57Z) - RUSplatting: Robust 3D Gaussian Splatting for Sparse-View Underwater Scene Reconstruction [9.070464075411472]
本稿では,水中深部レンダリングの視覚的品質と精度を両立させる,ガウススプラッティングに基づくフレームワークを提案する。
水中減衰の物理によって導かれるRGBチャネルの分離学習を提案し,より正確な色復元を実現する。
新たに収集されたデータセットであるSubmerged3Dは、特に深海環境においてキャプチャされる。
論文 参考訳(メタデータ) (2025-05-21T16:42:15Z) - AdaptSR: Low-Rank Adaptation for Efficient and Scalable Real-World Super-Resolution [50.584551250242235]
AdaptSRは、現実世界のタスクにバイキュービックトレーニングされたSRモデルを効率的に再利用する低ランク適応フレームワークである。
実験の結果,AdaptSRはPSNRで最大4dB,実際のSRベンチマークで2%,GAN法と拡散型SR法より優れていた。
論文 参考訳(メタデータ) (2025-03-10T18:03:18Z) - LiteGS: A High-performance Framework to Train 3DGS in Subminutes via System and Algorithm Codesign [6.7123686385076615]
3D Gaussian Splatting (3DGS)は、3D表現において有望な代替手段として登場したが、それでも高いトレーニングコストに悩まされている。
本稿では、3DGSトレーニングパイプラインを体系的に最適化する高性能計算フレームワークであるLiteGSを紹介する。
実験の結果、LiteGSはオリジナルの3DGSトレーニングを最大13.4倍、同等または優れた品質で加速した。
論文 参考訳(メタデータ) (2025-03-03T05:52:02Z) - EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation [84.70637613266835]
EoRAは、圧縮されたLarge Language Modelを低ランク行列で拡張する微調整不要な手法である。
EoRAは、圧縮LDMの精度を回復するために、トレーニングなしの低ランク法よりも一貫して優れている。
論文 参考訳(メタデータ) (2024-10-28T17:59:03Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。