論文の概要: K-Buffers: A Plug-in Method for Enhancing Neural Fields with Multiple Buffers
- arxiv url: http://arxiv.org/abs/2505.19564v1
- Date: Mon, 26 May 2025 06:24:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.212315
- Title: K-Buffers: A Plug-in Method for Enhancing Neural Fields with Multiple Buffers
- Title(参考訳): K-Buffers: 複数のバッファでニューラルネットワークを拡張するためのプラグイン手法
- Authors: Haofan Ren, Zunjie Zhu, Xiang Chen, Ming Lu, Rongfeng Lu, Chenggang Yan,
- Abstract要約: レンダリング性能を向上させるために,複数のバッファを利用するK-Buffersというプラグイン手法を提案する。
提案手法は,まずシーン表現からKバッファを描画し,K画素ワイド特徴写像を構成する。
次に、K画素ワイド機能マップと特徴デコーダを融合してレンダリング画像を生成するK-Feature Fusion Network(KFN)を導入する。
- 参考スコア(独自算出の注目度): 29.414015391586975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural fields are now the central focus of research in 3D vision and computer graphics. Existing methods mainly focus on various scene representations, such as neural points and 3D Gaussians. However, few works have studied the rendering process to enhance the neural fields. In this work, we propose a plug-in method named K-Buffers that leverages multiple buffers to improve the rendering performance. Our method first renders K buffers from scene representations and constructs K pixel-wise feature maps. Then, We introduce a K-Feature Fusion Network (KFN) to merge the K pixel-wise feature maps. Finally, we adopt a feature decoder to generate the rendering image. We also introduce an acceleration strategy to improve rendering speed and quality. We apply our method to well-known radiance field baselines, including neural point fields and 3D Gaussian Splatting (3DGS). Extensive experiments demonstrate that our method effectively enhances the rendering performance of neural point fields and 3DGS.
- Abstract(参考訳): 現在、ニューラルネットワークは3D視覚とコンピュータグラフィックスの研究の中心となっている。
既存の手法は主に、ニューラルポイントや3Dガウスのような様々なシーン表現に焦点を当てている。
しかし、ニューラルネットワークを強化するためのレンダリングプロセスを研究する研究はほとんどない。
そこで本研究では,複数のバッファを利用してレンダリング性能を向上させるプラグイン手法K-Buffersを提案する。
提案手法は,まずシーン表現からKバッファを描画し,K画素ワイド特徴写像を構成する。
そこで我々は,K-Feature Fusion Network (KFN)を導入し,K画素ワイド機能マップをマージする。
最後に、レンダリング画像を生成するために特徴デコーダを採用する。
また、レンダリング速度と品質を改善するための加速度戦略も導入する。
本稿では,ニューラルネットワークや3次元ガウススプラッティング(3DGS)など,よく知られた放射野ベースラインに適用する。
広汎な実験により,ニューラルネットワークと3DGSのレンダリング性能を効果的に向上することが示された。
関連論文リスト
- N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - Splatter Image: Ultra-Fast Single-View 3D Reconstruction [67.96212093828179]
Splatter ImageはGaussian Splattingをベースにしており、複数の画像から3Dシーンを高速かつ高品質に再現することができる。
テスト時に38FPSでフィードフォワードで再構成を行うニューラルネットワークを学習する。
いくつかの総合、実、マルチカテゴリ、大規模ベンチマークデータセットにおいて、トレーニング中にPSNR、LPIPS、その他のメトリクスでより良い結果を得る。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - Feature 3DGS: Supercharging 3D Gaussian Splatting to Enable Distilled Feature Fields [54.482261428543985]
ニューラル・ラジアンス・フィールドを使用する手法は、新しいビュー合成のような従来のタスクに汎用的である。
3次元ガウシアンスプラッティングは, 実時間ラディアンス場レンダリングにおける最先端の性能を示した。
この問題を効果的に回避するために,アーキテクチャとトレーニングの変更を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:46:30Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - Compact 3D Gaussian Representation for Radiance Field [14.729871192785696]
本研究では,3次元ガウス点数を削減するための学習可能なマスク戦略を提案する。
また、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2023-11-22T20:31:16Z) - BAA-NGP: Bundle-Adjusting Accelerated Neural Graphics Primitives [6.431806897364565]
ロボットは2D画像から3D環境を理解することができる。
本稿では,バンドル調整型高速化ニューラルネットワークプリミティブ(BAA-NGP)というフレームワークを提案する。
その結果,他の束調整型ニューラルラジアンスフィールド法と比較して10~20倍の速度向上が得られた。
論文 参考訳(メタデータ) (2023-06-07T05:36:45Z) - View Synthesis with Sculpted Neural Points [64.40344086212279]
暗黙の神経表現は印象的な視覚的品質を達成したが、計算効率に欠点がある。
本稿では,点雲を用いたビュー合成を行う新しい手法を提案する。
レンダリング速度を100倍以上速くしながら、NeRFよりも視覚的品質を向上する最初のポイントベース手法である。
論文 参考訳(メタデータ) (2022-05-12T03:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。