論文の概要: 3D Gaussian Point Encoders
- arxiv url: http://arxiv.org/abs/2511.04797v1
- Date: Thu, 06 Nov 2025 20:32:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.58198
- Title: 3D Gaussian Point Encoders
- Title(参考訳): 3次元ガウス点エンコーダ
- Authors: Jim James, Ben Wilson, Simon Lucey, James Hays,
- Abstract要約: 3Dガウス点(3D Gaussian Point)は、学習した3Dガウスの混合体上に構築された明示的な点毎の埋め込みである。
我々は、自然勾配とPointNetからの最適化手法を開発し、PointNetアクティベーションを再構築できるガウス基底を求める。
結果として得られる3Dガウスポイントエンコーダは、従来のポイントネットよりも高速でパラメータ効率が高い。
- 参考スコア(独自算出の注目度): 31.12290301793496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce the 3D Gaussian Point Encoder, an explicit per-point embedding built on mixtures of learned 3D Gaussians. This explicit geometric representation for 3D recognition tasks is a departure from widely used implicit representations such as PointNet. However, it is difficult to learn 3D Gaussian encoders in end-to-end fashion with standard optimizers. We develop optimization techniques based on natural gradients and distillation from PointNets to find a Gaussian Basis that can reconstruct PointNet activations. The resulting 3D Gaussian Point Encoders are faster and more parameter efficient than traditional PointNets. As in the 3D reconstruction literature where there has been considerable interest in the move from implicit (e.g., NeRF) to explicit (e.g., Gaussian Splatting) representations, we can take advantage of computational geometry heuristics to accelerate 3D Gaussian Point Encoders further. We extend filtering techniques from 3D Gaussian Splatting to construct encoders that run 2.7 times faster as a comparable accuracy PointNet while using 46% less memory and 88% fewer FLOPs. Furthermore, we demonstrate the effectiveness of 3D Gaussian Point Encoders as a component in Mamba3D, running 1.27 times faster and achieving a reduction in memory and FLOPs by 42% and 54% respectively. 3D Gaussian Point Encoders are lightweight enough to achieve high framerates on CPU-only devices.
- Abstract(参考訳): 本研究では3次元ガウス点エンコーダについて述べる。これは学習した3次元ガウス点を混合して構築された明示的な点毎の埋め込みである。
この3D認識タスクの明示的な幾何学的表現は、PointNetのような広く使われている暗黙の表現から逸脱している。
しかし,標準オプティマイザを用いて3次元ガウスエンコーダをエンドツーエンドで学習することは困難である。
自然勾配とPointNetからの蒸留に基づく最適化手法を開発し,PointNetの活性化を再構築できるガウス基底を求める。
結果として得られる3Dガウスポイントエンコーダは、従来のポイントネットよりも高速でパラメータ効率が高い。
暗黙的(例えば、NeRF)から明示的(例えば、ガウス的スプラッティング)への移動にかなりの関心がある3D再構成文献のように、3Dガウス的ポイントエンコーダをさらに加速するために、計算幾何学的ヒューリスティックを利用することができる。
我々は3D Gaussian Splattingのフィルタリング技術を拡張して、2.7倍の精度のPointNetを実行するエンコーダを構築し、メモリを46%削減し、FLOPを88%削減した。
さらに,Mamba3Dの3次元ガウス点エンコーダを1.27倍高速に動作し,メモリとFLOPをそれぞれ42%,54%削減できることを示す。
3D Gaussian Point EncodersはCPUのみのデバイスで高いフレームレートを実現するのに十分な軽量である。
関連論文リスト
- LabelGS: Label-Aware 3D Gaussian Splatting for 3D Scene Segmentation [56.4321049923868]
3D Gaussian Splatting (3DGS)は、3Dシーンの新たな明示的な表現として登場し、高忠実度再構成と効率的なレンダリングの両方を提供している。
ガウス表現をオブジェクトラベルで拡張する手法であるラベル対応3Dガウス分割法(LabelGS)を提案する。
LabelGSはFeature-3DGSと比較して、1440X1080の解像度でトレーニングで22倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2025-08-27T09:07:38Z) - GaussRender: Learning 3D Occupancy with Gaussian Rendering [86.89653628311565]
GaussRenderは、投影的一貫性を強制することによって3D占有学習を改善するモジュールである。
提案手法は,不整合な2次元プロジェクションを生成する3次元構成をペナライズすることにより,より一貫性のある3次元構造を実現する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - LeanGaussian: Breaking Pixel or Point Cloud Correspondence in Modeling 3D Gaussians [11.71048049090424]
変形可能なトランスフォーマーにおける各クエリを1つの3次元ガウス楕円体として扱う新しいアプローチであるLeanGaussianを紹介する。
変形可能なデコーダを用いて、画像特徴をキーと値として、ガウス層を反復的に洗練する。
提案手法は従来の手法よりも約6.1%優れ,PSNRは25.44,PSNRは22.36であった。
論文 参考訳(メタデータ) (2024-04-25T04:18:59Z) - Identifying Unnecessary 3D Gaussians using Clustering for Fast Rendering of 3D Gaussian Splatting [2.878831747437321]
3D-GSは、速度と画質の両方においてニューラル放射場(NeRF)を上回った新しいレンダリングアプローチである。
本研究では,現在のビューをレンダリングするために,不要な3次元ガウスをリアルタイムに識別する計算量削減手法を提案する。
Mip-NeRF360データセットの場合、提案手法は2次元画像投影の前に平均して3次元ガウスの63%を排除し、ピーク信号対雑音比(PSNR)を犠牲にすることなく全体のレンダリングを約38.3%削減する。
提案されたアクセラレータは、GPUと比較して10.7倍のスピードアップも達成している。
論文 参考訳(メタデータ) (2024-02-21T14:16:49Z) - AGG: Amortized Generative 3D Gaussians for Single Image to 3D [108.38567665695027]
Amortized Generative 3D Gaussian framework (AGG) を導入する。
AGGは、共同最適化のための3Dガウス位置およびその他の外観特性の生成を分解する。
本稿では,まず3次元データの粗い表現を生成し,後に3次元ガウス超解像モジュールでアップサンプリングするカスケードパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-08T18:56:33Z) - LightGaussian: Unbounded 3D Gaussian Compression with 15x Reduction and 200+ FPS [55.85673901231235]
光ガウシアン(LightGaussian)は、3次元ガウシアンをよりコンパクトなフォーマットに変換する方法である。
ネットワーク・プルーニングにインスパイアされたLightGaussianは、ガウシアンをシーン再構築において最小限のグローバルな重要性で特定した。
LightGaussian は 3D-GS フレームワークで FPS を 144 から 237 に上げながら,平均 15 倍の圧縮率を達成する。
論文 参考訳(メタデータ) (2023-11-28T21:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。