論文の概要: PSRGS:Progressive Spectral Residual of 3D Gaussian for High-Frequency Recovery
- arxiv url: http://arxiv.org/abs/2503.00848v1
- Date: Sun, 02 Mar 2025 10:52:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:18:50.394759
- Title: PSRGS:Progressive Spectral Residual of 3D Gaussian for High-Frequency Recovery
- Title(参考訳): PSRGS:高周波数回復のための3次元ガウスのプログレッシブスペクトル残差
- Authors: BoCheng Li, WenJuan Zhang, Bing Zhang, YiLing Yao, YaNing Wang,
- Abstract要約: 3Dガウススプラッティング(3D GS)は、小さな単一対象のシーンに対する新しいビュー合成において、印象的な結果をもたらす。
しかし、大規模なリモートセンシングシーンに適用すると、3D GSは課題に直面します。
スペクトル残差マップに基づくプログレッシブ最適化手法であるPSRGSを提案する。
- 参考スコア(独自算出の注目度): 3.310033172069517
- License:
- Abstract: 3D Gaussian Splatting (3D GS) achieves impressive results in novel view synthesis for small, single-object scenes through Gaussian ellipsoid initialization and adaptive density control. However, when applied to large-scale remote sensing scenes, 3D GS faces challenges: the point clouds generated by Structure-from-Motion (SfM) are often sparse, and the inherent smoothing behavior of 3D GS leads to over-reconstruction in high-frequency regions, where have detailed textures and color variations. This results in the generation of large, opaque Gaussian ellipsoids that cause gradient artifacts. Moreover, the simultaneous optimization of both geometry and texture may lead to densification of Gaussian ellipsoids at incorrect geometric locations, resulting in artifacts in other views. To address these issues, we propose PSRGS, a progressive optimization scheme based on spectral residual maps. Specifically, we create a spectral residual significance map to separate low-frequency and high-frequency regions. In the low-frequency region, we apply depth-aware and depth-smooth losses to initialize the scene geometry with low threshold. For the high-frequency region, we use gradient features with higher threshold to split and clone ellipsoids, refining the scene. The sampling rate is determined by feature responses and gradient loss. Finally, we introduce a pre-trained network that jointly computes perceptual loss from multiple views, ensuring accurate restoration of high-frequency details in both Gaussian ellipsoids geometry and color. We conduct experiments on multiple datasets to assess the effectiveness of our method, which demonstrates competitive rendering quality, especially in recovering texture details in high-frequency regions.
- Abstract(参考訳): 3次元ガウススプラッティング(3D GS)は,ガウス楕円体初期化と適応密度制御により,小さな単一対象シーンに対する新規なビュー合成を実現する。
しかし、大規模なリモートセンシングシーンに適用した場合、3D GS は課題に直面している。Structure-from-Motion (SfM) によって生成された点雲は、しばしばスパースであり、3D GS の本質的な滑らかな振る舞いは、詳細なテクスチャと色の変化を持つ高周波領域において過度に再構成される。
これにより、大きな不透明なガウス楕円体が生成され、勾配のアーティファクトが生じる。
さらに、幾何とテクスチャの同時最適化は、不正な幾何学的位置におけるガウス楕円体の密度化につながる可能性があり、他の見方では成果物となる。
これらの問題に対処するため,スペクトル残差マップに基づくプログレッシブ最適化手法であるPSRGSを提案する。
具体的には、低周波領域と高周波領域を分離するスペクトル残差重要度マップを作成する。
低周波領域では、低しきい値でシーン形状を初期化するために、深さ認識と深さ平滑な損失を適用します。
高周波領域では、高い閾値の勾配特徴を用いて楕円体を分割・クローンし、シーンを精製する。
サンプリング率は特徴応答と勾配損失によって決定される。
最後に,複数視点からの知覚損失を協調的に計算し,ガウス楕円体と色の両方において高精度な周波数情報復元を実現する事前学習ネットワークを提案する。
提案手法の有効性を評価するために,複数のデータセットを用いて実験を行い,特に高周波領域におけるテクスチャの詳細の復元において,競争力のあるレンダリング品質を示す。
関連論文リスト
- FeatureGS: Eigenvalue-Feature Optimization in 3D Gaussian Splatting for Geometrically Accurate and Artifact-Reduced Reconstruction [1.474723404975345]
3Dガウシアン3DGSは3Dガウシアンを用いた3Dシーン再構築の強力なアプローチとして登場した。
本稿では,固有値由来の3次元形状特徴に基づく幾何学的損失項を3DGSの最適化プロセスに組み込む。
論文 参考訳(メタデータ) (2025-01-29T13:40:25Z) - Pushing Rendering Boundaries: Hard Gaussian Splatting [72.28941128988292]
3D Gaussian Splatting (3DGS) は,NVS(Noven View Synthesis) をリアルタイムなレンダリング方式で実現した。
我々はHGSと呼ばれるハードガウシアンスプラッティングを提案し、これは多視点的な位置勾配とレンダリング誤差を考慮し、ハードガウシアンを成長させる。
本手法は,リアルタイムの効率を保ちながら,最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2024-12-06T07:42:47Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - Optimizing 3D Gaussian Splatting for Sparse Viewpoint Scene Reconstruction [11.840097269724792]
3D Gaussian Splatting (3DGS)は3Dシーン表現の有望なアプローチとして登場し、Neural Radiance Fields (NeRF)と比較して計算オーバーヘッドの低減を実現している。
SVS-GSは,3次元ガウス平滑化フィルタを統合して人工物を抑制する,スパースビューポイントシーン再構築のための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-09-05T03:18:04Z) - LoopSparseGS: Loop Based Sparse-View Friendly Gaussian Splatting [18.682864169561498]
LoopSparseGSは、疎結合なビュー合成タスクのためのループベースの3DGSフレームワークである。
Sparse-Friended Smpling (SFS) 戦略を導入し,ガウス楕円体を過剰に処理し,画素誤差が大きくなった。
4つのデータセットの実験により、LoopSparseGSはスパース・インプット・ノベルビューの合成において既存の最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-01T03:26:50Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。