論文の概要: Lagrangian Hashing for Compressed Neural Field Representations
- arxiv url: http://arxiv.org/abs/2409.05334v1
- Date: Mon, 9 Sep 2024 05:25:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 15:50:59.575382
- Title: Lagrangian Hashing for Compressed Neural Field Representations
- Title(参考訳): 圧縮ニューラルネットワーク表現のためのラグランジアンハッシュ
- Authors: Shrisudhan Govindarajan, Zeno Sambugaro, Akhmedkhan, Shabanov, Towaki Takikawa, Daniel Rebain, Weiwei Sun, Nicola Conci, Kwang Moo Yi, Andrea Tagliasacchi,
- Abstract要約: ラグランジアン・ハッシュ(Lagrangian Hashing)は、高速トレーニング型NeRF法の特徴を組み合わせたニューラルネットワークの表現である。
我々の主な発見は、我々の表現は、品質を損なうことなく、よりコンパクトな表現を用いて信号の再構成を可能にすることである。
- 参考スコア(独自算出の注目度): 31.23145728062387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Lagrangian Hashing, a representation for neural fields combining the characteristics of fast training NeRF methods that rely on Eulerian grids (i.e.~InstantNGP), with those that employ points equipped with features as a way to represent information (e.g. 3D Gaussian Splatting or PointNeRF). We achieve this by incorporating a point-based representation into the high-resolution layers of the hierarchical hash tables of an InstantNGP representation. As our points are equipped with a field of influence, our representation can be interpreted as a mixture of Gaussians stored within the hash table. We propose a loss that encourages the movement of our Gaussians towards regions that require more representation budget to be sufficiently well represented. Our main finding is that our representation allows the reconstruction of signals using a more compact representation without compromising quality.
- Abstract(参考訳): ラグランジアン・ハッシング(Lagrangian Hashing)は、情報表現の手段として特徴を備えた点(例えば3次元ガウス格子(英語版)やポイントNeRF)を用いた高速トレーニングNeRF法の特徴を組み合わせた、ニューラルネットワークの表現である。
InstantNGP表現の階層型ハッシュテーブルの高分解能層に点ベース表現を組み込むことにより、これを実現する。
私たちの点には影響の場が備わっているので、我々の表現はハッシュテーブルに格納されたガウスの混合と解釈できる。
我々は,表現予算を十分に適切に表現する必要がある地域へのガウス人の移動を促すための損失を提案する。
我々の主な発見は、我々の表現は、品質を損なうことなく、よりコンパクトな表現を用いて信号の再構成を可能にすることである。
関連論文リスト
- MeshFeat: Multi-Resolution Features for Neural Fields on Meshes [38.93284476165776]
パラメトリック特徴格子符号化は、ニューラルネットワークの符号化手法として注目されている。
Euclidean空間のマルチレゾリューション機能グリッドの考え方を適応させるために,メッシュ用に調整されたパラメトリック機能であるMeshFeatを提案する。
テクスチャ再構築とBRDF表現に匹敵する再現品質を維持しつつ, 従来の表現と比較して, 大幅な高速化を示した。
論文 参考訳(メタデータ) (2024-07-18T15:29:48Z) - GaussianFormer: Scene as Gaussians for Vision-Based 3D Semantic Occupancy Prediction [70.65250036489128]
3Dのセマンティック占有予測は,周囲のシーンの3Dの微細な形状とセマンティックスを得ることを目的としている。
本稿では,3Dシーンを3Dセマンティック・ガウシアンで表現するオブジェクト中心表現を提案する。
GaussianFormerは17.8%から24.8%のメモリ消費しか持たない最先端のメソッドで同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-27T17:59:51Z) - 3D Reconstruction with Fast Dipole Sums [12.865206085308728]
マルチビュー画像から高忠実度表面を再構成する手法を提案する。
本手法では,点雲内の点当たりの属性を任意のものにするために,巻線数を一般化する双極子和という新しい点ベース表現を用いる。
論文 参考訳(メタデータ) (2024-05-27T03:23:25Z) - HAC: Hash-grid Assisted Context for 3D Gaussian Splatting Compression [55.6351304553003]
3D Gaussian Splatting (3DGS) は、新しいビュー合成のための有望なフレームワークとして登場した。
高速な3DGS表現のためのHash-grid Assisted Context (HAC) フレームワークを提案する。
私たちの研究は、コンテキストベースの3DGS表現の圧縮を探求するパイオニアです。
論文 参考訳(メタデータ) (2024-03-21T16:28:58Z) - Mini-Splatting: Representing Scenes with a Constrained Number of Gaussians [4.733612131945549]
本研究では,ガウスの制約の多いシーンを効率よく表現することの課題について検討する。
本稿では, ブラース分割や深部再初期化, 交差点保存・サンプリングによる簡易化など, 密度化戦略を紹介する。
我々のMini-Splattingは、オリジナル化パイプラインとシームレスに統合され、ガウス・スプレイティングに基づく将来の研究の強力なベースラインを提供する。
論文 参考訳(メタデータ) (2024-03-21T06:34:46Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - SHACIRA: Scalable HAsh-grid Compression for Implicit Neural
Representations [46.01969382873856]
Inlicit Neural Representation (INR)やNeural Fieldは、マルチメディア信号をエンコードする一般的なフレームワークとして登場した。
本稿では,これらの特徴グリッドを,追加のホット後のプルーニング/量子化段階を伴わずに圧縮するフレームワークであるSHACIRAを提案する。
我々のアプローチは、大規模なデータセットやドメイン固有のものを必要としない既存のINRアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-09-27T17:59:48Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - Deep Implicit Surface Point Prediction Networks [49.286550880464866]
暗黙の関数としての3次元形状の深い神経表現は、高忠実度モデルを生成することが示されている。
本稿では,CSP(Nest Surface-point)表現と呼ばれる新しい種類の暗黙の表現を用いて,そのような曲面をモデル化する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-10T14:31:54Z) - Shape As Points: A Differentiable Poisson Solver [118.12466580918172]
本稿では,ポアソン表面再構成 (PSR) の微分可能な定式化を用いた,微分可能な点間メッシュ層を提案する。
微分可能なPSR層は、暗示指標場を介して、明示的な3D点表現を3Dメッシュに効率よく、かつ、差別的にブリッジすることができる。
ニューラル暗黙の表現と比較して、私たちのシェープ・アズ・ポイント(SAP)モデルはより解釈可能で、軽量で、1桁の推論時間を加速します。
論文 参考訳(メタデータ) (2021-06-07T09:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。