論文の概要: Diff2DGS: Reliable Reconstruction of Occluded Surgical Scenes via 2D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2602.18314v1
- Date: Fri, 20 Feb 2026 16:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.375069
- Title: Diff2DGS: Reliable Reconstruction of Occluded Surgical Scenes via 2D Gaussian Splatting
- Title(参考訳): Diff2DGS : 2次元ガウススプラッティングによる手術シーンの信頼性回復
- Authors: Tianyi Song, Danail Stoyanov, Evangelos Mazomenos, Francisco Vasconcelos,
- Abstract要約: Diff2DGSは,閉鎖型手術シーンの信頼性3次元再構成のための新しい2段階フレームワークである。
第1段階では、時間的先行性を持つ拡散型ビデオモジュールは、空間的時間的整合性の高い楽器によって遮蔽された組織を塗布する。
第2段階では, 動的組織変形と解剖学的形状を捉えるために, 学習可能な変形モデル (LDM) を用いて2次元ガウススティング (2DGS) を適用した。
Diff2DGSは外観と幾何学の両方において最先端のアプローチより優れ、38.02dBのPSNRに達する
- 参考スコア(独自算出の注目度): 10.70948053935438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time reconstruction of deformable surgical scenes is vital for advancing robotic surgery, improving surgeon guidance, and enabling automation. Recent methods achieve dense reconstructions from da Vinci robotic surgery videos, with Gaussian Splatting (GS) offering real-time performance via graphics acceleration. However, reconstruction quality in occluded regions remains limited, and depth accuracy has not been fully assessed, as benchmarks like EndoNeRF and StereoMIS lack 3D ground truth. We propose Diff2DGS, a novel two-stage framework for reliable 3D reconstruction of occluded surgical scenes. In the first stage, a diffusion-based video module with temporal priors inpaints tissue occluded by instruments with high spatial-temporal consistency. In the second stage, we adapt 2D Gaussian Splatting (2DGS) with a Learnable Deformation Model (LDM) to capture dynamic tissue deformation and anatomical geometry. We also extend evaluation beyond prior image-quality metrics by performing quantitative depth accuracy analysis on the SCARED dataset. Diff2DGS outperforms state-of-the-art approaches in both appearance and geometry, reaching 38.02 dB PSNR on EndoNeRF and 34.40 dB on StereoMIS. Furthermore, our experiments demonstrate that optimizing for image quality alone does not necessarily translate into optimal 3D reconstruction accuracy. To address this, we further optimize the depth quality of the reconstructed 3D results, ensuring more faithful geometry in addition to high-fidelity appearance.
- Abstract(参考訳): 変形可能な手術シーンのリアルタイム再構築は、ロボット手術の進行、手術指導の改善、自動化の実現に不可欠である。
近年の手法はダ・ヴィンチのロボット手術ビデオから高精細な再構成を実現し,ガウシアン・スプラッティング(GS)はグラフィックス・アクセラレーションによるリアルタイムなパフォーマンスを実現している。
しかし、隠蔽領域の再構成品質は依然として限られており、EndoNeRFやStereoMISのようなベンチマークでは3D基底真理が欠如しているため、深さの精度は十分に評価されていない。
Diff2DGSは,閉鎖型手術シーンの信頼性3次元再構成のための新しい2段階フレームワークである。
第1段階では、時間的先行性を持つ拡散型ビデオモジュールは、空間的時間的整合性の高い楽器によって遮蔽された組織を塗布する。
第2段階では, 動的組織変形と解剖学的形状を捉えるために, 学習可能な変形モデル (LDM) を用いて2次元ガウススティング (2DGS) を適用した。
また、SCAREDデータセット上で定量的な深度精度解析を行うことにより、画像品質の指標を超えて評価を拡大する。
Diff2DGSは外観と幾何学の両方において最先端のアプローチを上回り、EndoNeRFでは38.02dB、StereoMISでは34.40dBに達した。
さらに,画像品質の最適化だけでは,必ずしも最適な3次元再構成精度に変換されないことを示した。
これを解決するために、再構成された3次元結果の深さ品質をさらに最適化し、高忠実度外観に加えて、より忠実な幾何を確実にする。
関連論文リスト
- SAGS: Self-Adaptive Alias-Free Gaussian Splatting for Dynamic Surgical Endoscopic Reconstruction [10.831257597641669]
変形性組織再建のための自己適応型エイリアスフリーガウススプラッティングフレームワークであるSAGSを提案する。
3次元平滑化フィルタと2次元ミップフィルタを応用し, 変形性組織再構成における成果物を緩和する, 注意駆動型動的重み付き4次元変形デコーダを提案する。
論文 参考訳(メタデータ) (2025-10-31T09:42:32Z) - 3D Gaussian Flats: Hybrid 2D/3D Photometric Scene Reconstruction [62.84879632157956]
本研究では,平面平面(2D)ガウスと自由形式(3D)ガウスを連立最適化するハイブリッド2D/3D表現を提案する。
我々のエンドツーエンドアプローチは、平面領域を動的に検出・洗練し、視覚的忠実度と幾何学的精度の両方を改善する。
ScanNet++とScanNetv2の最先端の深さ推定を実現し、特定のカメラモデルに過度に適合することなくメッシュ抽出に優れる。
論文 参考訳(メタデータ) (2025-09-19T21:04:36Z) - EndoLRMGS: Complete Endoscopic Scene Reconstruction combining Large Reconstruction Modelling and Gaussian Splatting [16.50682401904587]
本研究では, 手術シーンの完全再構築にLRM(Large Restruction Modelling)とGS(Gaussian Splatting)を併用したEndoLRMGSを提案する。
GSは変形可能な組織を再構築し、LRMは手術器具の3Dモデルを生成し、位置とスケールはその後最適化される。
3つの公開データセットから得られた4つの手術ビデオの実験では、ツール3DモデルのIoU(Intersection-over-union)を2Dプロジェクションで40%改善する。
論文 参考訳(メタデータ) (2025-03-28T13:57:12Z) - SurgicalGS: Dynamic 3D Gaussian Splatting for Accurate Robotic-Assisted Surgical Scene Reconstruction [18.074890506856114]
幾何学的精度を向上した手術シーン再構築のための動的3次元ガウススプレイティングフレームワークであるStagementGSを提案する。
提案手法は,まず奥行き先を用いてガウス点雲を初期化し,深度変化の大きい画素を識別するために二元運動マスクを用い,フレーム間の深度マップから点雲を融合して初期化する。
フレキシブル変形モデルを用いて動的シーンを表現し、教師なし深度スムースネス制約とともに正規化深度正規化損失を導入し、より正確な幾何再構成を実現する。
論文 参考訳(メタデータ) (2024-10-11T22:46:46Z) - A Review of 3D Reconstruction Techniques for Deformable Tissues in Robotic Surgery [8.909938295090827]
NeRFベースの技術は、暗黙的にシーンを再構築する能力に注目が集まっている。
一方、3D-GSは3Dガウシアンを明示的に使用し、NeRFの複雑なボリュームレンダリングの代替として2D平面に投影するシーンを表現している。
この研究は、最先端のSOTA(State-of-the-art)アプローチを探求し、レビューし、彼らのイノベーションと実装原則について議論する。
論文 参考訳(メタデータ) (2024-08-08T12:51:23Z) - 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images via Vessel Probability Guided Attenuation Learning [79.60829508459753]
現在の商用デジタルサブトラクション・アンジオグラフィー(DSA)システムは通常、再構築を行うために数百のスキャンビューを要求する。
スパース・ビューDSA画像のダイナミックな血流と不十分な入力は,3次元血管再建作業において重要な課題である。
本稿では,時間に依存しない容器確率場を用いてこの問題を効果的に解くことを提案する。
論文 参考訳(メタデータ) (2024-05-17T11:23:33Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - Endo-4DGS: Endoscopic Monocular Scene Reconstruction with 4D Gaussian Splatting [12.333523732756163]
動的シーン再構築は、下流の作業を大幅に強化し、手術結果を改善することができる。
NeRFベースの手法は、最近、シーンを再構築する異常な能力で有名になった。
本研究では,リアルタイムな内視鏡的動的再構成手法であるEndo-4DGSを提案する。
論文 参考訳(メタデータ) (2024-01-29T18:55:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。