論文の概要: ColonAdapter: Geometry Estimation Through Foundation Model Adaptation for Colonoscopy
- arxiv url: http://arxiv.org/abs/2511.22250v1
- Date: Thu, 27 Nov 2025 09:21:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.480078
- Title: ColonAdapter: Geometry Estimation Through Foundation Model Adaptation for Colonoscopy
- Title(参考訳): ColonAdapter: 大腸内視鏡のための基礎モデル適応による幾何学的推定
- Authors: Zhiyi Jiang, Yifu Wang, Xuelian Cheng, Zongyuan Ge,
- Abstract要約: 単眼の大腸内視鏡像から3次元形状を推定することは、非ランベルト面、移動光源、大きなテクスチャのない領域のために困難である。
大腸内視鏡の幾何学的基礎モデルに適応する自己教師型微調整フレームワークであるColonAdapterを提案する。
- 参考スコア(独自算出の注目度): 18.844097623387974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating 3D geometry from monocular colonoscopy images is challenging due to non-Lambertian surfaces, moving light sources, and large textureless regions. While recent 3D geometric foundation models eliminate the need for multi-stage pipelines, their performance deteriorates in clinical scenes. These models are primarily trained on natural scene datasets and struggle with specularity and homogeneous textures typical in colonoscopy, leading to inaccurate geometry estimation. In this paper, we present ColonAdapter, a self-supervised fine-tuning framework that adapts geometric foundation models for colonoscopy geometry estimation. Our method leverages pretrained geometric priors while tailoring them to clinical data. To improve performance in low-texture regions and ensure scale consistency, we introduce a Detail Restoration Module (DRM) and a geometry consistency loss. Furthermore, a confidence-weighted photometric loss enhances training stability in clinical environments. Experiments on both synthetic and real datasets demonstrate that our approach achieves state-of-the-art performance in camera pose estimation, monocular depth prediction, and dense 3D point map reconstruction, without requiring ground-truth intrinsic parameters.
- Abstract(参考訳): 単眼の大腸内視鏡像から3次元形状を推定することは、非ランベルト面、移動光源、大きなテクスチャのない領域のために困難である。
最近の3次元幾何学的基礎モデルでは、多段パイプラインの必要性は排除されているが、臨床シーンでは性能が低下している。
これらのモデルは、主に自然のシーンデータセットに基づいて訓練され、大腸内視鏡で典型的な特異性や均質なテクスチャと闘い、不正確な幾何学的推定をもたらす。
本稿では,幾何学的基礎モデルを適用した自己教師型微調整フレームワークであるColonAdapterについて述べる。
本手法は, 臨床データに適応しながら, 事前学習した幾何学的先行情報を活用する。
低テクスチャ領域の性能向上とスケールの整合性確保のために,ディテール復元モジュール(DRM)と幾何整合損失を導入する。
さらに、信頼度重み付けされた測光損失は、臨床環境におけるトレーニングの安定性を高める。
合成データと実データの両方を用いた実験により,本手法は,地中トラス固有のパラメータを必要とせず,カメラポーズ推定,単眼深度予測,高密度3次元点マップ再構成において,最先端性能を実現することを示す。
関連論文リスト
- Moving Light Adaptive Colonoscopy Reconstruction via Illumination-Attenuation-Aware 3D Gaussian Splatting [35.37461816543526]
3D Gaussian Splatting (3DGS) は, 大腸内視鏡におけるリアルタイム視線合成の重要技術として出現している。
しかし、バニラ3DGSは静止照明を仮定し、観測された外観は視角のみに依存する。
このミスマッチは、ほとんどの3DGS法に、カメラと組織の間に、構造に違反するガウスの塊を導入するよう強制する。
大腸内視鏡に適した改良型3DGSフレームワークであるColIAGSを提案する。
論文 参考訳(メタデータ) (2025-10-21T15:44:23Z) - G4Splat: Geometry-Guided Gaussian Splatting with Generative Prior [53.762256749551284]
我々は,3次元シーン再構成を効果的に活用するための基本的な前提条件として,正確な幾何学を同定する。
生成パイプライン全体にこの幾何学的ガイダンスを導入し、可視性マスク推定を改善し、新しいビュー選択をガイドし、ビデオ拡散モデルに着色した場合の多視点一貫性を向上させる。
本手法は,屋内および屋外の両方のシナリオにおいて,高い一般化性を有するシングルビュー入力とアンポーズ映像を自然にサポートする。
論文 参考訳(メタデータ) (2025-10-14T03:06:28Z) - ColonCrafter: A Depth Estimation Model for Colonoscopy Videos Using Diffusion Priors [1.9437590375121516]
ColonCrafterは拡散に基づく深度推定モデルであり、単眼の大腸内視鏡ビデオから時間的に一貫した深度マップを生成する。
本手法は, 時間的に一貫した深度マップを生成するために, 合成大腸内視鏡の配列から頑健な幾何学的先行を学習する。
論文 参考訳(メタデータ) (2025-09-16T20:40:22Z) - ND-SDF: Learning Normal Deflection Fields for High-Fidelity Indoor Reconstruction [50.07671826433922]
微妙な幾何を同時に復元し、異なる特徴を持つ領域をまたいだ滑らかさを保つことは自明ではない。
そこで我々は,ND-SDFを提案する。ND-SDFは,通常のシーンとそれ以前のシーンの角偏差を表す正規偏向場を学習する。
本手法は, 壁面や床面などのスムーズなテクスチャ構造を得るだけでなく, 複雑な構造の幾何学的詳細も保存する。
論文 参考訳(メタデータ) (2024-08-22T17:59:01Z) - ToDER: Towards Colonoscopy Depth Estimation and Reconstruction with Geometry Constraint Adaptation [67.22294293695255]
そこで本稿では,ToDERという双方向適応アーキテクチャを用いて,高精度な深度推定を行う新しいパイプラインを提案する。
以上の結果から,本手法は実写および合成大腸内視鏡ビデオの深度マップを精度良く予測できることが示唆された。
論文 参考訳(メタデータ) (2024-07-23T14:24:26Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - A geometry-aware deep network for depth estimation in monocular
endoscopy [17.425158094539462]
提案手法は,異なるデータセットと臨床画像にまたがって広範囲に検証されている。
提案法の平均RMSE値は12.604(T1-L1)、9.930(T2-L2)、13.893(Colon)である。
論文 参考訳(メタデータ) (2023-04-20T11:59:32Z) - C$^3$Fusion: Consistent Contrastive Colon Fusion, Towards Deep SLAM in
Colonoscopy [0.0]
光内視鏡(OC)による3D大腸再建による非検査面の検出は未解決の問題である。
近年の手法では,(1)フレーム・ツー・フレーム(あるいはフレーム・ツー・モデル)の予測が多くのトラッキング障害を引き起こし,(2)スキャン品質を犠牲にしてポイントベース表現に頼っている。
本稿では,これらの課題を終末まで解決し,定量的かつ定性的かつ堅牢な3次元大腸再建を実現するための新しい再構築フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-04T10:38:19Z) - ColDE: A Depth Estimation Framework for Colonoscopy Reconstruction [27.793186578742088]
本研究では,大腸内視鏡データの特別な課題に対処するために,一連のトレーニング損失を設計した。
ColDEという名前の自己監督型フレームワークは、十分なトレーニング損失を伴って、大腸内視鏡データのより詳細なマップを生成することができる。
論文 参考訳(メタデータ) (2021-11-19T04:44:27Z) - SIDER: Single-Image Neural Optimization for Facial Geometric Detail
Recovery [54.64663713249079]
SIDERは、教師なしの方法で単一の画像から詳細な顔形状を復元する新しい光度最適化手法である。
以前の作業とは対照的に、SIDERはデータセットの事前に依存せず、複数のビュー、照明変更、地上の真実の3D形状から追加の監視を必要としない。
論文 参考訳(メタデータ) (2021-08-11T22:34:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。