論文の概要: TRAN-D: 2D Gaussian Splatting-based Sparse-view Transparent Object Depth Reconstruction via Physics Simulation for Scene Update
- arxiv url: http://arxiv.org/abs/2507.11069v2
- Date: Wed, 16 Jul 2025 12:02:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 12:30:11.789037
- Title: TRAN-D: 2D Gaussian Splatting-based Sparse-view Transparent Object Depth Reconstruction via Physics Simulation for Scene Update
- Title(参考訳): TRAN-D:2次元ガウス平滑化に基づくSparse-view Transparent Object Depth Restructing by Physics Simulation for Scene Update
- Authors: Jeongyun Kim, Seunghoon Jeong, Giseop Kim, Myung-Hwan Jeon, Eunji Jun, Ayoung Kim,
- Abstract要約: TRAN-Dは透明物体に対する新しい2次元ガウス平板を用いた深度再構成法である。
我々は、ガウス人を不明瞭な地域に配置するオブジェクト認識損失でアーティファクトを緩和する。
物理に基づくシミュレーションを組み込んで、わずか数秒で復元を洗練します。
- 参考スコア(独自算出の注目度): 14.360210515795904
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding the 3D geometry of transparent objects from RGB images is challenging due to their inherent physical properties, such as reflection and refraction. To address these difficulties, especially in scenarios with sparse views and dynamic environments, we introduce TRAN-D, a novel 2D Gaussian Splatting-based depth reconstruction method for transparent objects. Our key insight lies in separating transparent objects from the background, enabling focused optimization of Gaussians corresponding to the object. We mitigate artifacts with an object-aware loss that places Gaussians in obscured regions, ensuring coverage of invisible surfaces while reducing overfitting. Furthermore, we incorporate a physics-based simulation that refines the reconstruction in just a few seconds, effectively handling object removal and chain-reaction movement of remaining objects without the need for rescanning. TRAN-D is evaluated on both synthetic and real-world sequences, and it consistently demonstrated robust improvements over existing GS-based state-of-the-art methods. In comparison with baselines, TRAN-D reduces the mean absolute error by over 39% for the synthetic TRansPose sequences. Furthermore, despite being updated using only one image, TRAN-D reaches a {\delta} < 2.5 cm accuracy of 48.46%, over 1.5 times that of baselines, which uses six images. Code and more results are available at https://jeongyun0609.github.io/TRAN-D/.
- Abstract(参考訳): RGB画像から透明な物体の3次元形状を理解することは、反射や屈折のような固有の物理的性質のために困難である。
これらの問題に対処するため、特に疎視や動的環境のシナリオにおいて、透明物体に対する新しい2次元ガウススプラッティングに基づく深度再構成法であるTRAN-Dを導入する。
私たちの重要な洞察は、背景から透明なオブジェクトを分離することであり、オブジェクトに対応するガウスの集中的な最適化を可能にします。
我々は、ガウシアンを不明瞭な地域に配置し、過剰な適合を抑えながら、見えない表面のカバレッジを確保するオブジェクト認識の損失で、アーティファクトを緩和する。
さらに, わずか数秒で復元を洗練させる物理シミュレーションを組み込み, 再走査を必要とせず, 物体の除去と鎖-反応運動を効果的に処理する。
TRAN-Dは合成シーケンスと実世界のシーケンスの両方で評価され、既存のGSベースの最先端手法よりも頑健な改善が一貫して示された。
ベースラインと比較して、TRAN-Dは合成TRansPose配列に対して平均絶対誤差を39%以上削減する。
さらに、TRAN-Dは1つの画像のみを使用して更新されているにもかかわらず、6つの画像を使用するベースラインの1.5倍の精度で 2.5 cm < 48.46% に達する。
コードやその他の結果はhttps://jeongyun0609.github.io/TRAN-D/.comで公開されている。
関連論文リスト
- Low-Frequency First: Eliminating Floating Artifacts in 3D Gaussian Splatting [22.626200397052862]
3D Gaussian Splatting (3DGS)は、3D再構成のための強力な表現である。
3DGSはフローティングアーティファクトをしばしば生成し、これは実際の幾何学から切り離された誤った構造である。
最適化されていないガウスを選択的に拡張し、高精度な低周波学習を優先するEFA-GSを提案する。
論文 参考訳(メタデータ) (2025-08-04T15:03:56Z) - GS-2DGS: Geometrically Supervised 2DGS for Reflective Object Reconstruction [51.99776072246151]
2次元ガウス散乱(2DGS)に基づく反射物体に対するGS-2DGSと呼ばれる新しい再構成法を提案する。
合成および実データを用いた実験結果から,本手法はガウスの手法を再現・啓蒙の面で著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-06-16T05:40:16Z) - RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - TransparentGS: Fast Inverse Rendering of Transparent Objects with Gaussians [35.444290579981455]
3D-GSに基づく透明物体のための高速逆レンダリングパイプラインであるTransparentGSを提案する。
我々はガウス光場プローブ(GaussProbe)を利用して、周囲の光と近傍のコンテンツの両方を統一された枠組みで符号化する。
複雑な環境から透明な物体を回収する際のアプローチの速度と精度について実験を行った。
論文 参考訳(メタデータ) (2025-04-26T02:15:03Z) - TSGS: Improving Gaussian Splatting for Transparent Surface Reconstruction via Normal and De-lighting Priors [39.60777069381983]
我々は、幾何学学習と外観改善を分離する新しいフレームワークであるTransparent Surface Gaussian Splatting (TSGS)を紹介した。
幾何学学習の段階では、TSGSは、表面を正確に表現するために、スペクトル抑圧された入力を用いて幾何学に焦点を当てる。
深度推定を強化するため、TSGSは第1面の深度抽出法を採用している。
論文 参考訳(メタデータ) (2025-04-17T10:00:09Z) - TransDiff: Diffusion-Based Method for Manipulating Transparent Objects Using a Single RGB-D Image [9.242427101416226]
デスクトップ上での材料に依存しない物体の把握を実現するため,単一ビューのRGB-D-based depth completion frameworkであるTransDiffを提案する。
我々は,RGB画像から抽出した特徴(セグメンテーション,エッジマップ,正規マップなど)を,深度マップ生成プロセスの条件として活用する。
提案手法は,ランダムな深度分布を深度マップに変換する反復的復調過程を学習し,初期改良された深度情報を用いて導出する。
論文 参考訳(メタデータ) (2025-03-17T03:29:37Z) - GSGTrack: Gaussian Splatting-Guided Object Pose Tracking from RGB Videos [18.90495041083675]
本稿では,新しいRGBベースのポーズトラッキングフレームワークであるGSGTrackを紹介する。
トラッキング中のノイズに過度に敏感な画素ワイド損失の問題に対処するために,物体のシルエット損失を提案する。
OnePoseとHO3Dの実験では、6DoFのポーズトラッキングとオブジェクト再構成の両方においてGSGTrackの有効性が示されている。
論文 参考訳(メタデータ) (2024-12-03T08:38:44Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - SMORE: Simultaneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。