論文の概要: Gaussian Blending: Rethinking Alpha Blending in 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2511.15102v1
- Date: Wed, 19 Nov 2025 04:21:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.629968
- Title: Gaussian Blending: Rethinking Alpha Blending in 3D Gaussian Splatting
- Title(参考訳): ガウシアン・ブレンディング:3Dガウシアン・スプレイティングにおけるアルファ・ブレンディングの再考
- Authors: Junseo Koo, Jinseo Jeong, Gunhee Kim,
- Abstract要約: 3DGSは、トレーニング中に見えない視線を合成する際、目立った相違が見られる。
本稿では,アルファとトランスミタンスを空間的に異なる分布として扱う新しい手法を提案する。
ガウシアン・ブレンディングは、目に見えないサンプリングレートと見られるサンプリングレートの両方で、既存の新しいビュー合成モデルより一貫して優れている。
- 参考スコア(独自算出の注目度): 44.60390400402599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent introduction of 3D Gaussian Splatting (3DGS) has significantly advanced novel view synthesis. Several studies have further improved the rendering quality of 3DGS, yet they still exhibit noticeable visual discrepancies when synthesizing views at sampling rates unseen during training. Specifically, they suffer from (i) erosion-induced blurring artifacts when zooming in and (ii) dilation-induced staircase artifacts when zooming out. We speculate that these artifacts arise from the fundamental limitation of the alpha blending adopted in 3DGS methods. Instead of the conventional alpha blending that computes alpha and transmittance as scalar quantities over a pixel, we propose to replace it with our novel Gaussian Blending that treats alpha and transmittance as spatially varying distributions. Thus, transmittances can be updated considering the spatial distribution of alpha values across the pixel area, allowing nearby background splats to contribute to the final rendering. Our Gaussian Blending maintains real-time rendering speed and requires no additional memory cost, while being easily integrated as a drop-in replacement into existing 3DGS-based or other NVS frameworks. Extensive experiments demonstrate that Gaussian Blending effectively captures fine details at various sampling rates unseen during training, consistently outperforming existing novel view synthesis models across both unseen and seen sampling rates.
- Abstract(参考訳): 最近の3Dガウススプラッティング(3DGS)の導入により、新しいビュー合成が大幅に進歩した。
いくつかの研究は、3DGSのレンダリング品質をさらに改善しているが、トレーニング中に見つからないサンプリングレートでビューを合成する際、目立った視覚的相違が見られる。
特に 苦しむのは
一 拡大する際に浸食によるぼやけ物
(II)ズームアウト時の拡張誘導階段アーティファクト。
これらのアーティファクトは、3DGS法で採用されるアルファブレンディングの基本的な制限から生じると推測する。
アルファと透過率を1ピクセル上のスカラー量として計算する従来のアルファブレンディングの代わりに、アルファと透過率を空間的に異なる分布として扱う新しいガウスブレンディングに置き換えることを提案する。
これにより、画素領域全体にわたるアルファ値の空間分布を考慮した透過率の更新が可能となり、近傍の背景スプラットが最終的なレンダリングに寄与する。
我々のGaussian Blendingはリアルタイムレンダリング速度を維持しており、追加のメモリコストは必要ありませんが、既存の3DGSベースの他のNVSフレームワークへのドロップイン代替として簡単に統合できます。
広範にわたる実験により、ガウスブレンディングはトレーニング中に見えない様々なサンプリングレートで細部を効果的に捉え、既存の新しいビュー合成モデルよりも一貫して優れていることが示された。
関連論文リスト
- UGOD: Uncertainty-Guided Differentiable Opacity and Soft Dropout for Enhanced Sparse-View 3DGS [8.78995910690481]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)の競争的アプローチとなっている
本稿では,ガウスの適応重み付けがレンダリング品質に与える影響について検討する。
提案手法は,MipNeRF 360データセットにおいて3.27%のPSNR改善を実現する。
論文 参考訳(メタデータ) (2025-08-07T01:42:22Z) - Does 3D Gaussian Splatting Need Accurate Volumetric Rendering? [8.421214057144569]
3D Gaussian Splatting (3DGS) は撮影シーンの3D表現を学習するための重要な参照手法である。
3DGSに先立つNeRFは、レンダリングのための原則的なレイマーチングアプローチに基づいている。
元の3DGSソリューションで用いられる様々な近似と仮定を詳細に分析する。
論文 参考訳(メタデータ) (2025-02-26T17:11:26Z) - Volumetrically Consistent 3D Gaussian Rasterization [18.84882580327324]
また,スプレイティングにおけるコア近似は,ビューライザ内においても不要であることを示す。
この分析透過率を用いて3DGSよりも高精度なアルファ値を得る。
本手法は, 3DGSよりも精度が高く, 点数が少ない表面を表現している。
論文 参考訳(メタデータ) (2024-12-04T15:05:43Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - WE-GS: An In-the-wild Efficient 3D Gaussian Representation for Unconstrained Photo Collections [8.261637198675151]
制約のない写真コレクションからの新規ビュー合成(NVS)は、コンピュータグラフィックスでは困難である。
写真コレクションからのシーン再構築のための効率的なポイントベース微分可能レンダリングフレームワークを提案する。
提案手法は、新しいビューのレンダリング品質と、高収束・レンダリング速度の外観合成において、既存のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T15:17:37Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。