論文の概要: GaussianBlock: Building Part-Aware Compositional and Editable 3D Scene by Primitives and Gaussians
- arxiv url: http://arxiv.org/abs/2410.01535v1
- Date: Sun, 6 Oct 2024 08:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 17:14:45.670566
- Title: GaussianBlock: Building Part-Aware Compositional and Editable 3D Scene by Primitives and Gaussians
- Title(参考訳): GaussianBlock: プリミティブとガウシアンによるパートアウェアな構成と編集可能な3Dシーンの構築
- Authors: Shuyi Jiang, Qihao Zhao, Hossein Rahmani, De Wen Soh, Jun Liu, Na Zhao,
- Abstract要約: 本稿では,意味的コヒーレントかつ非絡み合いのある表現を可能にする,GaussianBlockと呼ばれる新しい部分認識型合成再構成手法を提案する。
再構成されたシーンは、様々なベンチマークで絡み合っており、構成的でコンパクトであり、シームレスで、直接的で、正確な編集を可能にすることが証明されている。
- 参考スコア(独自算出の注目度): 14.683337059919692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, with the development of Neural Radiance Fields and Gaussian Splatting, 3D reconstruction techniques have achieved remarkably high fidelity. However, the latent representations learnt by these methods are highly entangled and lack interpretability. In this paper, we propose a novel part-aware compositional reconstruction method, called GaussianBlock, that enables semantically coherent and disentangled representations, allowing for precise and physical editing akin to building blocks, while simultaneously maintaining high fidelity. Our GaussianBlock introduces a hybrid representation that leverages the advantages of both primitives, known for their flexible actionability and editability, and 3D Gaussians, which excel in reconstruction quality. Specifically, we achieve semantically coherent primitives through a novel attention-guided centering loss derived from 2D semantic priors, complemented by a dynamic splitting and fusion strategy. Furthermore, we utilize 3D Gaussians that hybridize with primitives to refine structural details and enhance fidelity. Additionally, a binding inheritance strategy is employed to strengthen and maintain the connection between the two. Our reconstructed scenes are evidenced to be disentangled, compositional, and compact across diverse benchmarks, enabling seamless, direct and precise editing while maintaining high quality.
- Abstract(参考訳): 近年, ニューラルレージアン場とガウススプラッティングの発展に伴い, 3次元再構成技術は極めて高い忠実性を実現している。
しかし、これらの手法によって学習される潜在表現は非常に絡み合っており、解釈可能性に欠ける。
本稿では,GussianBlockと呼ばれる新しい部分認識型合成再構成手法を提案する。これは意味的一貫性と非絡み合いの表現を可能にし,高い忠実さを同時に維持しつつ,ビルディングブロックに類似した正確な物理的編集を可能にする。
我々のGaussianBlockは、フレキシブルな動作性と編集性で知られるプリミティブと、再現性に優れた3D Gaussianの両方の利点を生かしたハイブリッド表現を導入しています。
具体的には,2次元のセマンティックプリミティブから誘導される新たな注意誘導中心的損失を,動的分裂と融合戦略によって補うことによって,意味的コヒーレントなプリミティブを実現する。
さらに, プリミティブとハイブリダイゼーションした3次元ガウスアンを用いて, 構造的詳細を洗練し, 忠実度を高める。
さらに、この2つの接続を強化し維持するために、バインディング継承戦略が採用されている。
再構成されたシーンは、様々なベンチマークで絡み合っていて、構成的でコンパクトで、シームレスで、直接的で、正確な編集が可能で、高品質を維持しています。
関連論文リスト
- G2SDF: Surface Reconstruction from Explicit Gaussians with Implicit SDFs [84.07233691641193]
G2SDFはニューラル暗黙の符号付き距離場をガウススプラッティングフレームワークに統合する新しいアプローチである。
G2SDFは, 3DGSの効率を維持しつつ, 従来よりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - Structure Consistent Gaussian Splatting with Matching Prior for Few-shot Novel View Synthesis [28.3325478008559]
SCGaussian, structure Consistent Gaussian Splatting method using matching priors to learn 3D consistent scene structure。
シーン構造を2つの折り畳みで最適化する: 幾何学の描画とより重要なのは、ガウス原始体の位置である。
前方, 周囲, 複雑な大規模シーンにおける実験により, 最先端性能と高効率性によるアプローチの有効性が示された。
論文 参考訳(メタデータ) (2024-11-06T03:28:06Z) - 2DGH: 2D Gaussian-Hermite Splatting for High-quality Rendering and Better Geometry Reconstruction [7.787937866297091]
2D Gaussian Splattingは3D再構成において重要な方法として最近出現した。
本稿では,ガウススプラッティングにおける新しいプリミティブとしてガウス・ハーマイトカーネルを提案する。
ガウス・ハーマイト核の幾何再構成と新規ビュー合成における異常な性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-08-30T03:04:11Z) - Implicit Gaussian Splatting with Efficient Multi-Level Tri-Plane Representation [45.582869951581785]
Implicit Gaussian Splatting (IGS)は、明示的なポイントクラウドと暗黙的な機能埋め込みを統合する革新的なハイブリッドモデルである。
本稿では,空間正規化を具体化したレベルベースプログレッシブトレーニング手法を提案する。
我々のアルゴリズムは、数MBしか使用せず、ストレージ効率とレンダリング忠実さを効果的にバランスして、高品質なレンダリングを実現することができる。
論文 参考訳(メタデータ) (2024-08-19T14:34:17Z) - Effective Rank Analysis and Regularization for Enhanced 3D Gaussian Splatting [33.01987451251659]
3D Gaussian Splatting(3DGS)は、高品質な3D再構成によるリアルタイムレンダリングが可能な有望な技術として登場した。
その可能性にもかかわらず、3DGSは針のようなアーティファクト、準最適ジオメトリー、不正確な正常など、課題に直面している。
正規化として有効なランクを導入し、ガウスの構造を制約する。
論文 参考訳(メタデータ) (2024-06-17T15:51:59Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - latentSplat: Autoencoding Variational Gaussians for Fast Generalizable 3D Reconstruction [48.86083272054711]
latentSplatは3D潜在空間における意味ガウスを予測し、軽量な生成型2Dアーキテクチャで切り落としてデコードする手法である。
latentSplatは、高速でスケーラブルで高解像度なデータでありながら、復元品質と一般化におけるこれまでの成果よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-24T20:48:36Z) - HAC: Hash-grid Assisted Context for 3D Gaussian Splatting Compression [55.6351304553003]
3D Gaussian Splatting (3DGS) は、新しいビュー合成のための有望なフレームワークとして登場した。
高速な3DGS表現のためのHash-grid Assisted Context (HAC) フレームワークを提案する。
私たちの研究は、コンテキストベースの3DGS表現の圧縮を探求するパイオニアです。
論文 参考訳(メタデータ) (2024-03-21T16:28:58Z) - GVGEN: Text-to-3D Generation with Volumetric Representation [89.55687129165256]
3Dガウススプラッティングは、高速で高品質なレンダリング機能で知られる3D再構成と生成のための強力な技術として登場した。
本稿では,テキスト入力から3次元ガウス表現を効率的に生成する新しい拡散型フレームワークGVGENを提案する。
論文 参考訳(メタデータ) (2024-03-19T17:57:52Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - GaussianHead: High-fidelity Head Avatars with Learnable Gaussian Derivation [35.39887092268696]
本稿では, 異方性3次元ガウスモデルを用いて, 動作する人間の頭部をモデル化する枠組みを提案する。
実験では,高忠実度レンダリング,再現における最先端のアプローチ,クロスアイデンティティの再現,新しいビュー合成タスクを実現できる。
論文 参考訳(メタデータ) (2023-12-04T05:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。