論文の概要: IDESplat: Iterative Depth Probability Estimation for Generalizable 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2601.03824v1
- Date: Wed, 07 Jan 2026 11:37:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.189232
- Title: IDESplat: Iterative Depth Probability Estimation for Generalizable 3D Gaussian Splatting
- Title(参考訳): IDESplat: 一般化可能な3次元ガウス平滑化のための反復深さ確率推定
- Authors: Wei Long, Haifeng Wu, Shiyin Jiang, Jinhua Zhang, Xinchun Ji, Shuhang Gu,
- Abstract要約: 一般化可能な3次元ガウススプラッティングは,映像再構成のためのフィードフォワードネットワークを用いてガウスパラメータを直接予測することを目的としている。
本稿では,ワープ操作を反復的に適用して深度推定を高速化するIDESplatを提案する。
IDESplatは、リアルタイム効率で優れた再構築品質と最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 20.86909837361289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalizable 3D Gaussian Splatting aims to directly predict Gaussian parameters using a feed-forward network for scene reconstruction. Among these parameters, Gaussian means are particularly difficult to predict, so depth is usually estimated first and then unprojected to obtain the Gaussian sphere centers. Existing methods typically rely solely on a single warp to estimate depth probability, which hinders their ability to fully leverage cross-view geometric cues, resulting in unstable and coarse depth maps. To address this limitation, we propose IDESplat, which iteratively applies warp operations to boost depth probability estimation for accurate Gaussian mean prediction. First, to eliminate the inherent instability of a single warp, we introduce a Depth Probability Boosting Unit (DPBU) that integrates epipolar attention maps produced by cascading warp operations in a multiplicative manner. Next, we construct an iterative depth estimation process by stacking multiple DPBUs, progressively identifying potential depth candidates with high likelihood. As IDESplat iteratively boosts depth probability estimates and updates the depth candidates, the depth map is gradually refined, resulting in accurate Gaussian means. We conduct experiments on RealEstate10K, ACID, and DL3DV. IDESplat achieves outstanding reconstruction quality and state-of-the-art performance with real-time efficiency. On RE10K, it outperforms DepthSplat by 0.33 dB in PSNR, using only 10.7% of the parameters and 70% of the memory. Additionally, our IDESplat improves PSNR by 2.95 dB over DepthSplat on the DTU dataset in cross-dataset experiments, demonstrating its strong generalization ability.
- Abstract(参考訳): 一般化可能な3次元ガウススプラッティングは,映像再構成のためのフィードフォワードネットワークを用いてガウスパラメータを直接予測することを目的としている。
これらのパラメータの中で、ガウス平均は特に予測が難しいため、深さは通常最初に推定され、ガウス球の中心を得るために計画されていない。
既存の手法は、通常は1つのワープにのみ依存して深さの確率を推定するが、これは横方向の幾何学的手がかりを完全に活用することができず、不安定で粗い深さマップをもたらす。
この制限に対処するため,我々はワープ操作を反復的に適用し,精度の高いガウス平均予測のための深さ推定を高速化するIDESplatを提案する。
まず、単一ワープの固有の不安定性を排除するために、カスケードワープ操作によって生成されたエピポーラ注意マップを乗法的に統合するDPBU(Depth Probability Boosting Unit)を導入する。
次に,複数のDPBUを積み重ねた反復深度推定プロセスを構築し,潜在的深度候補を高い確率で段階的に同定する。
IDESplatは、深さ予測を反復的に増加させ、深さ候補を更新するので、深度マップは徐々に洗練され、正確なガウス手段となる。
我々はRealEstate10K,AC,DL3DVについて実験を行った。
IDESplatは、リアルタイム効率で優れた再構築品質と最先端のパフォーマンスを実現する。
RE10Kでは、パラメータの10.7%とメモリの70%しか使用せず、PSNRではDepthSplatを0.33dB上回っている。
さらに,我々のIDESplatは,DTUデータセット上のPSNRを2.95dB向上させ,その強力な一般化能力を実証した。
関連論文リスト
- Pseudo Depth Meets Gaussian: A Feed-forward RGB SLAM Baseline [64.42938561167402]
本稿では,3次元ガウス型SLAMとフィードフォワードリカレント予測モジュールを組み合わせたオンライン3次元再構成手法を提案する。
このアプローチは、遅いテスト時間の最適化を高速なネットワーク推論に置き換え、トラッキング速度を大幅に改善する。
提案手法は,最先端のSplaTAMと同等の性能を示しながら,追跡時間を90%以上削減する。
論文 参考訳(メタデータ) (2025-08-06T16:16:58Z) - DepthSplat: Connecting Gaussian Splatting and Depth [90.06180236292866]
ガウススプラッティングと深さ推定を結合するDepthSplatを提案する。
ガウススプラッティングは、強力な深度モデルを学ぶための教師なし事前学習の目的として機能することを示す。
我々のDepthSplatは、ScanNet、RealEstate10K、DL3DVデータセットの最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-17T17:59:58Z) - Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Deep Multi-view Depth Estimation with Predicted Uncertainty [11.012201499666503]
我々は、高密度光フローネットワークを用いて対応を計算し、点雲を三角測量して初期深度マップを得る。
三角測量の精度をさらに高めるため,画像の文脈に基づく初期深度マップを最適化する深度補正ネットワーク(DRN)を導入する。
論文 参考訳(メタデータ) (2020-11-19T00:22:09Z) - Balanced Depth Completion between Dense Depth Inference and Sparse Range
Measurements via KISS-GP [14.158132769768578]
密集した正確な深度マップを推定することは、自動運転とロボット工学にとって重要な要件である。
近年のディープラーニングの進歩により、単一の画像から全解像度での深度推定が可能になった。
この驚くべき結果にもかかわらず、多くのディープラーニングベースの単眼深度推定アルゴリズムは、その精度をメーターレベルの推定誤差に保たない。
論文 参考訳(メタデータ) (2020-08-12T08:07:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。