論文の概要: Raindrop GS: A Benchmark for 3D Gaussian Splatting under Raindrop Conditions
- arxiv url: http://arxiv.org/abs/2510.17719v1
- Date: Mon, 20 Oct 2025 16:36:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.528906
- Title: Raindrop GS: A Benchmark for 3D Gaussian Splatting under Raindrop Conditions
- Title(参考訳): Raindrop GS: 降雨条件下における3次元ガウス散乱のベンチマーク
- Authors: Zhiqiang Teng, Beibei Lin, Tingting Chen, Zifeng Yuan, Xuanyi Li, Xuanyu Zhang, Shunli Zhang,
- Abstract要約: RaindropGSは、3DGSのパイプライン全体を評価するために設計されたベンチマークである。
まず,実世界の雨滴復元データセットを収集し,各シーンに3つの整列した画像を含む。
本研究では, 既存の3DGS法の性能限界に対する重要な洞察を, 総合的な実験と分析を通じて明らかにした。
- 参考スコア(独自算出の注目度): 23.642500549050027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) under raindrop conditions suffers from severe occlusions and optical distortions caused by raindrop contamination on the camera lens, substantially degrading reconstruction quality. Existing benchmarks typically evaluate 3DGS using synthetic raindrop images with known camera poses (constrained images), assuming ideal conditions. However, in real-world scenarios, raindrops often interfere with accurate camera pose estimation and point cloud initialization. Moreover, a significant domain gap between synthetic and real raindrops further impairs generalization. To tackle these issues, we introduce RaindropGS, a comprehensive benchmark designed to evaluate the full 3DGS pipeline-from unconstrained, raindrop-corrupted images to clear 3DGS reconstructions. Specifically, the whole benchmark pipeline consists of three parts: data preparation, data processing, and raindrop-aware 3DGS evaluation, including types of raindrop interference, camera pose estimation and point cloud initialization, single image rain removal comparison, and 3D Gaussian training comparison. First, we collect a real-world raindrop reconstruction dataset, in which each scene contains three aligned image sets: raindrop-focused, background-focused, and rain-free ground truth, enabling a comprehensive evaluation of reconstruction quality under different focus conditions. Through comprehensive experiments and analyses, we reveal critical insights into the performance limitations of existing 3DGS methods on unconstrained raindrop images and the varying impact of different pipeline components: the impact of camera focus position on 3DGS reconstruction performance, and the interference caused by inaccurate pose and point cloud initialization on reconstruction. These insights establish clear directions for developing more robust 3DGS methods under raindrop conditions.
- Abstract(参考訳): 雨滴条件下での3Dガウススメッティング(3DGS)は, カメラレンズの雨滴汚染による深刻な閉塞や光歪みに悩まされ, 再現性は著しく低下する。
既存のベンチマークでは、理想的な条件を仮定して、既知のカメラポーズ(制約された画像)を備えた合成雨滴画像を用いて3DGSを評価するのが一般的である。
しかし、現実のシナリオでは、雨滴は正確なカメラポーズ推定と点雲の初期化に干渉することが多い。
さらに、合成雨滴と実際の雨滴の間の大きな領域ギャップは、さらに一般化を損なう。
これらの問題に対処するために、RaindropGSを紹介します。これは、3DGSのパイプライン全体を評価するために設計された総合的なベンチマークで、制約のない雨滴崩壊画像から3DGSの再構築をクリアするために設計されています。
具体的には、データ準備、データ処理、レインドロップ対応の3DGS評価、雨滴干渉の種類、カメラポーズ推定とポイントクラウドの初期化、単一画像雨除去比較、および3Dガウス訓練比較の3つの部分から構成される。
まず、実際の雨滴復元データセットを収集し、各シーンは雨滴中心、背景重視、無雨地真実の3つの整列したイメージセットを含み、異なる焦点条件下での復元品質の総合的な評価を可能にする。
本研究では,非拘束型雨滴画像における既存の3DGS法の性能限界と異なるパイプライン成分の影響について,総合的な実験と解析を通じて重要な知見を明らかにし,カメラ焦点位置が3DGS再建性能に与える影響,不正確なポーズと点雲初期化による干渉が再現に与える影響について述べる。
これらの知見は降雨条件下でより堅牢な3DGS法を開発するための明確な方向を確立する。
関連論文リスト
- PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - DeRainGS: Gaussian Splatting for Enhanced Scene Reconstruction in Rainy Environments [4.86090922870914]
本研究では, 降雨環境における3次元再構築の課題について紹介する(3DRRE)。
このタスクをベンチマークするために、合成画像と実世界のシーン画像の両方の多様なコレクションからなるHydroViewsデータセットを構築した。
降雨環境の復元に適した3DGS法であるDeRainGSを提案する。
論文 参考訳(メタデータ) (2024-08-21T11:39:18Z) - RainyScape: Unsupervised Rainy Scene Reconstruction using Decoupled Neural Rendering [50.14860376758962]
多視点降雨画像の集合からクリーンなシーンを再構築するための教師なしフレームワークであるRainyScapeを提案する。
ニューラルネットワークのスペクトルバイアス特性に基づいて、まずニューラルネットワークのレンダリングパイプラインを最適化し、低周波シーン表現を得る。
我々は2つのモジュールを協調的に最適化し,適応的指向性勾配に基づく再構成損失によって駆動する。
論文 参考訳(メタデータ) (2024-04-17T14:07:22Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - Semi-MoreGAN: A New Semi-supervised Generative Adversarial Network for
Mixture of Rain Removal [18.04268933542476]
降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水・降水)
セミモレGANは、4つの重要なモジュールで構成されている: (I) 正確な深度推定を提供する新しい注意深度予測ネットワーク、 (ii) 詳細な画像コンテキスト特徴を生成するためによく設計された詳細残差ブロックで構成されたコンテキスト特徴予測ネットワーク、 (iii) ピラミッド深度誘導非局所ネットワークにより画像コンテキストを深度情報と有効に統合し、最終雨量のない画像を生成する、 (iv) モデルに制限を加えるための包括的な半教師付き損失関数。
論文 参考訳(メタデータ) (2022-04-28T11:35:26Z) - From Rain Generation to Rain Removal [67.71728610434698]
雨層を生成物としてパラメータ化した雨画像のためのベイズ生成モデルを構築した。
降雨画像の統計的分布を推定するために,変分推論の枠組みを用いる。
総合的な実験により,提案モデルが複雑な降雨分布を忠実に抽出できることが確認された。
論文 参考訳(メタデータ) (2020-08-08T18:56:51Z) - Structural Residual Learning for Single Image Rain Removal [48.87977695398587]
本研究は,本質的な降雨構造を有するネットワークの出力残余を強制することで,新たなネットワークアーキテクチャを提案する。
このような構造的残差設定は、ネットワークによって抽出された雨層が、一般的な雨害の以前の知識に微妙に従うことを保証している。
論文 参考訳(メタデータ) (2020-05-19T05:52:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。