論文の概要: Monocular absolute depth estimation from endoscopy via domain-invariant feature learning and latent consistency
- arxiv url: http://arxiv.org/abs/2511.02247v1
- Date: Tue, 04 Nov 2025 04:25:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.808579
- Title: Monocular absolute depth estimation from endoscopy via domain-invariant feature learning and latent consistency
- Title(参考訳): 領域不変特徴学習と潜時整合による内視鏡からの単分子絶対深度推定
- Authors: Hao Li, Daiwei Lu, Jesse d'Almeida, Dilara Isik, Ehsan Khodapanah Aghdam, Nick DiSanto, Ayberk Acar, Susheela Sharma, Jie Ying Wu, Robert J. Webster III, Ipek Oguz,
- Abstract要約: 現在の画像レベルの教師なし領域適応法は、既知の深度マップを用いた合成画像を実際の内視鏡フレームのスタイルに翻訳する。
中央気道の内視鏡的映像の文脈において,この領域ギャップを小さくすることで絶対深度推定を改善するための潜時特徴アライメント法を提案する。
現状のMDE法と比較して,本手法は絶対深度と相対深度の両方で優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 5.257607423828341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monocular depth estimation (MDE) is a critical task to guide autonomous medical robots. However, obtaining absolute (metric) depth from an endoscopy camera in surgical scenes is difficult, which limits supervised learning of depth on real endoscopic images. Current image-level unsupervised domain adaptation methods translate synthetic images with known depth maps into the style of real endoscopic frames and train depth networks using these translated images with their corresponding depth maps. However a domain gap often remains between real and translated synthetic images. In this paper, we present a latent feature alignment method to improve absolute depth estimation by reducing this domain gap in the context of endoscopic videos of the central airway. Our methods are agnostic to the image translation process and focus on the depth estimation itself. Specifically, the depth network takes translated synthetic and real endoscopic frames as input and learns latent domain-invariant features via adversarial learning and directional feature consistency. The evaluation is conducted on endoscopic videos of central airway phantoms with manually aligned absolute depth maps. Compared to state-of-the-art MDE methods, our approach achieves superior performance on both absolute and relative depth metrics, and consistently improves results across various backbones and pretrained weights. Our code is available at https://github.com/MedICL-VU/MDE.
- Abstract(参考訳): 単眼深度推定(MDE)は自律型医療ロボットを誘導する重要な課題である。
しかし,手術シーンにおける内視鏡カメラからの絶対深度取得は困難であり,実際の内視鏡画像における深度学習の監督が困難である。
現在の画像レベルの教師なし領域適応法は、既知の深度マップを用いた合成画像を実際の内視鏡フレームのスタイルに翻訳し、これらの翻訳画像と対応する深度マップを用いてトレーニング深度ネットワークを訓練する。
しかし、実際の合成画像と翻訳された合成画像の間にはドメインギャップが残っていることが多い。
本稿では,中央気道の内視鏡的映像の文脈において,この領域間隙を小さくすることで絶対深度推定を改善する潜在特徴アライメント法を提案する。
本手法は画像翻訳プロセスに非依存であり,深度推定自体に重点を置いている。
具体的には、Deep Networkは、合成および実際の内視鏡フレームを入力として、対向学習と指向性特徴整合性を通じて潜在ドメイン不変の特徴を学習する。
本評価は,手動の絶対深度マップを用いた中央気道ファントムの内視鏡的映像を用いて行った。
現状のMDE法と比較して,本手法は絶対深度と相対深度の両方で優れた性能を示し,各バックボーンと事前訓練した重みを連続的に改善する。
私たちのコードはhttps://github.com/MedICL-VU/MDE.comで公開されています。
関連論文リスト
- EndoMUST: Monocular Depth Estimation for Robotic Endoscopy via End-to-end Multi-step Self-supervised Training [0.7499722271664147]
本研究では,多段効率のファインタニングを施した新しいフレームワークを提案する。
基礎モデルに基づくパラメータ効率の微調整に基づいて,提案手法は最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-06-19T04:31:59Z) - MetaFE-DE: Learning Meta Feature Embedding for Depth Estimation from Monocular Endoscopic Images [18.023231290573268]
既存の手法ではRGB画像から直接深度情報を推定する。
メタ機能埋め込み(MetaFE)と呼ばれる新しい概念を紹介する。
本稿では,分子内深度推定のための2段階の自己教師型学習パラダイムを提案する。
論文 参考訳(メタデータ) (2025-02-05T02:52:30Z) - Marigold-DC: Zero-Shot Monocular Depth Completion with Guided Diffusion [57.08169927189237]
奥行き完了のための既存の手法は、厳密に制約された設定で動作する。
単眼深度推定の進歩に触発されて,画像条件の深度マップ生成として深度補完を再構成した。
Marigold-DCは、単分子深度推定のための事前訓練された潜伏拡散モデルを構築し、試験時間ガイダンスとして深度観測を注入する。
論文 参考訳(メタデータ) (2024-12-18T00:06:41Z) - Structure-preserving Image Translation for Depth Estimation in Colonoscopy Video [1.0485739694839669]
本稿では,構造保存型合成現実画像(sim2real)のパイプラインを提案する。
これにより、教師付き深度推定のために、大量のリアルな合成画像を生成することができる。
また,画像翻訳のプロセスを改善するために,臨床大腸内視鏡からの手書き配列のデータセットも提案する。
論文 参考訳(メタデータ) (2024-08-19T17:02:16Z) - Towards Domain-agnostic Depth Completion [28.25756709062647]
既存の深度補完法は、しばしば特定のスパース深度型を目標とし、タスク領域をまたいだ一般化が不十分である。
各種センサで得られたスパース/セミデンス,ノイズ,および低分解能深度マップを完備する手法を提案する。
本手法は,最先端の深度補完法に対して優れたクロスドメイン一般化能力を示す。
論文 参考訳(メタデータ) (2022-07-29T04:10:22Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Learning Depth via Leveraging Semantics: Self-supervised Monocular Depth
Estimation with Both Implicit and Explicit Semantic Guidance [34.62415122883441]
シーン認識深度推定のための暗黙的意味特徴と深度特徴とを一致させるセマンティック認識空間特徴アライメント方式を提案する。
また,推定深度マップを実シーンの文脈特性と整合性に明示的に制約する意味誘導型ランキング損失を提案する。
複雑なシーンや多様なセマンティックカテゴリで一貫して優れた、高品質な深度マップを作成します。
論文 参考訳(メタデータ) (2021-02-11T14:29:51Z) - Novel View Synthesis of Dynamic Scenes with Globally Coherent Depths
from a Monocular Camera [93.04135520894631]
本稿では,動的シーンの画像のコレクションを与えられた任意のビューや時間から画像を合成する新しい手法を提案する。
新しいビュー合成の鍵となる課題は、エピポーラ幾何学が動的コンテンツの局所的な動きに適用できない動的なシーン再構成から生じる。
この課題に対処するために、DSVが完成しているマルチビューステレオ(DMV)からの深度と深度を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-04-02T22:45:53Z) - Don't Forget The Past: Recurrent Depth Estimation from Monocular Video [92.84498980104424]
私たちは3つの異なる種類の深さ推定を共通のフレームワークに組み込んだ。
提案手法は, 時系列の深度マップを生成する。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
論文 参考訳(メタデータ) (2020-01-08T16:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。