論文の概要: AttentionGS: Towards Initialization-Free 3D Gaussian Splatting via Structural Attention
- arxiv url: http://arxiv.org/abs/2506.23611v1
- Date: Mon, 30 Jun 2025 08:16:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.974585
- Title: AttentionGS: Towards Initialization-Free 3D Gaussian Splatting via Structural Attention
- Title(参考訳): AttentionGS: 構造的注意による初期化自由な3次元ガウススプラッティングを目指して
- Authors: Ziao Liu, Zhenjia Li, Yifeng Shi, Xiangang Li,
- Abstract要約: 3D Gaussian Splatting(3DGS)はNeRF(Neural Radiance Fields)の強力な代替品である
これはStructure-from-Motion(SfM)からの高品質な点雲に依存している。
本稿では,高品質な初期点雲への依存を解消する新しいフレームワークであるAttentionGSを提案する。
- 参考スコア(独自算出の注目度): 11.400892739301804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) is a powerful alternative to Neural Radiance Fields (NeRF), excelling in complex scene reconstruction and efficient rendering. However, it relies on high-quality point clouds from Structure-from-Motion (SfM), limiting its applicability. SfM also fails in texture-deficient or constrained-view scenarios, causing severe degradation in 3DGS reconstruction. To address this limitation, we propose AttentionGS, a novel framework that eliminates the dependency on high-quality initial point clouds by leveraging structural attention for direct 3D reconstruction from randomly initialization. In the early training stage, we introduce geometric attention to rapidly recover the global scene structure. As training progresses, we incorporate texture attention to refine fine-grained details and enhance rendering quality. Furthermore, we employ opacity-weighted gradients to guide Gaussian densification, leading to improved surface reconstruction. Extensive experiments on multiple benchmark datasets demonstrate that AttentionGS significantly outperforms state-of-the-art methods, particularly in scenarios where point cloud initialization is unreliable. Our approach paves the way for more robust and flexible 3D Gaussian Splatting in real-world applications.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、NeRF(Neural Radiance Fields)の強力な代替品であり、複雑なシーン再構成と効率的なレンダリングに優れる。
しかし、それはStructure-from-Motion (SfM)の高品質な点雲に依存し、適用性を制限する。
SfMはテクスチャに欠けるシナリオや制約されたビューのシナリオでも失敗し、3DGSの再構築で深刻な劣化を引き起こす。
この制限に対処するために、構造的注意を生かして高品質な初期点雲への依存を無くし、ランダムな初期化から直接3D再構成を行う新しいフレームワークであるAttentionGSを提案する。
初期の訓練段階では,グローバルなシーン構造を迅速に回復するために幾何学的注意を喚起する。
トレーニングが進むにつれて、テクスチャの注意を微妙な詳細化やレンダリング品質の向上に役立てる。
さらに,不純物重み付け勾配を用いてガウス密度を導出し,表面改質の改善を図った。
複数のベンチマークデータセットに対する大規模な実験では、特にポイントクラウドの初期化が信頼できないシナリオにおいて、AttentionGSが最先端のメソッドを大幅に上回っていることが示されている。
我々のアプローチは、現実世界のアプリケーションにおいて、より堅牢で柔軟な3Dガウススプラッティングの道を開く。
関連論文リスト
- Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization [69.50126552763157]
表面再構成はコンピュータビジョンとグラフィックスの基本であり、3Dモデリング、混合現実、ロボット工学などの応用を可能にする。
レンダリングに基づく既存のアプローチは有望な結果を得るが、シーンごとに最適化されるため、テクスチャレスな領域をモデル化するのに苦労する可能性がある。
大規模屋内シーンの2次元ガウススプラッティング最適化のための高密度初期化を生成するために,データ駆動の先行処理を学習するQuickSplatを紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:43:26Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - StructGS: Adaptive Spherical Harmonics and Rendering Enhancements for Superior 3D Gaussian Splatting [5.759434800012218]
StructGS は 3D Gaussian Splatting (3DGS) を強化し、3D再構成における新規なビュー合成を改善するフレームワークである。
我々のフレームワークは計算冗長性を著しく低減し、ディテールキャプチャを強化し、低解像度入力からの高解像度レンダリングをサポートする。
論文 参考訳(メタデータ) (2025-03-09T05:39:44Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - Dense Point Clouds Matter: Dust-GS for Scene Reconstruction from Sparse Viewpoints [9.069919085326]
3D Gaussian Splatting (3DGS) はシーン合成および新しいビュー合成タスクにおいて顕著な性能を示した。
本研究では,スパース視点条件下での3DGSの限界を克服する新しいフレームワークであるDust-GSを提案する。
論文 参考訳(メタデータ) (2024-09-13T07:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。