論文の概要: N-Dimensional Gaussians for Fitting of High Dimensional Functions
- arxiv url: http://arxiv.org/abs/2405.20067v1
- Date: Thu, 30 May 2024 13:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 14:08:52.141890
- Title: N-Dimensional Gaussians for Fitting of High Dimensional Functions
- Title(参考訳): 高次元関数の整合のためのN次元ガウス多様体
- Authors: Stavros Diolatzis, Tobias Zirr, Alexandr Kuznetsov, Georgios Kopanas, Anton Kaplanyan,
- Abstract要約: 本稿では,ガウス混合モデルに基づく明示表現の課題に取り組む。
局所性感性ハッシュにインスパイアされたN-Dガウスを効率的に束縛する高次元カリング方式を提案する。
適応的洗練とコンパクト化を両立させるため,付加能力の使用を漸進的に導く損失適応密度制御方式を導入する。
これらのツールを使えば、位置や視角を超えた多くの入力次元に依存する複雑な外観を初めて表現することができます。
- 参考スコア(独自算出の注目度): 46.181156534494704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the wake of many new ML-inspired approaches for reconstructing and representing high-quality 3D content, recent hybrid and explicitly learned representations exhibit promising performance and quality characteristics. However, their scaling to higher dimensions is challenging, e.g. when accounting for dynamic content with respect to additional parameters such as material properties, illumination, or time. In this paper, we tackle these challenges for an explicit representations based on Gaussian mixture models. With our solutions, we arrive at efficient fitting of compact N-dimensional Gaussian mixtures and enable efficient evaluation at render time: For fast fitting and evaluation, we introduce a high-dimensional culling scheme that efficiently bounds N-D Gaussians, inspired by Locality Sensitive Hashing. For adaptive refinement yet compact representation, we introduce a loss-adaptive density control scheme that incrementally guides the use of additional capacity towards missing details. With these tools we can for the first time represent complex appearance that depends on many input dimensions beyond position or viewing angle within a compact, explicit representation optimized in minutes and rendered in milliseconds.
- Abstract(参考訳): 高品質な3Dコンテンツを再構成し、表現するためのMLに触発された新しいアプローチが数多く導入され、近年のハイブリッドおよび明示的な表現は、有望な性能と品質特性を示す。
しかし、それらの高次元へのスケーリングは、例えば、材料特性、照明、時間といった追加のパラメータに関して動的コンテンツを説明する場合など、困難である。
本稿では,ガウス混合モデルに基づく明示的な表現のために,これらの課題に取り組む。
我々は, コンパクトなN-次元ガウス混合体を効率よく適合させ, レンダリング時の効率的な評価を可能にした: 高速なフィッティングと評価のために, 局所性感性ハッシュに着想を得たN-Dガウスを効率的に結合する高次元カリングスキームを導入する。
適応的洗練とコンパクト化を両立させるため,損失適応密度制御方式を導入し,余分な詳細に向けて追加容量の使用を漸進的に誘導する。
これらのツールを使えば、数分で最適化されミリ秒でレンダリングされるコンパクトで明示的な表現の中で、位置や視角を超えた多くの入力次元に依存する複雑な外観を初めて表現できる。
関連論文リスト
- Mini-Splatting2: Building 360 Scenes within Minutes via Aggressive Gaussian Densification [4.733612131945549]
Mini-Splatting2は最適化時間、ガウス数、レンダリング品質のバランスの取れたトレードオフを実現する。
我々の研究は、現実世界のアプリケーションにおいて、より効率的で高品質な3Dシーンモデリングのステージを定めている。
論文 参考訳(メタデータ) (2024-11-19T11:47:40Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - Implicit Gaussian Splatting with Efficient Multi-Level Tri-Plane Representation [45.582869951581785]
Implicit Gaussian Splatting (IGS)は、明示的なポイントクラウドと暗黙的な機能埋め込みを統合する革新的なハイブリッドモデルである。
本稿では,空間正規化を具体化したレベルベースプログレッシブトレーニング手法を提案する。
我々のアルゴリズムは、数MBしか使用せず、ストレージ効率とレンダリング忠実さを効果的にバランスして、高品質なレンダリングを実現することができる。
論文 参考訳(メタデータ) (2024-08-19T14:34:17Z) - MVSGaussian: Fast Generalizable Gaussian Splatting Reconstruction from Multi-View Stereo [54.00987996368157]
MVSGaussianは、Multi-View Stereo(MVS)から導かれる新しい一般化可能な3次元ガウス表現手法である。
MVSGaussianは、シーンごとにより良い合成品質でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2024-05-20T17:59:30Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - Iso-Points: Optimizing Neural Implicit Surfaces with Hybrid
Representations [21.64457003420851]
我々は,幾何認識によるサンプリングと正規化を課すことができるハイブリッドニューラルサーフェス表現を開発した。
本手法は、多視点画像や点群から神経暗黙面を再構築する技術を改善するために適用できることを実証する。
論文 参考訳(メタデータ) (2020-12-11T15:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。