論文の概要: Occlusion-Aware Self-Supervised Monocular Depth Estimation for Weak-Texture Endoscopic Images
- arxiv url: http://arxiv.org/abs/2504.17582v1
- Date: Thu, 24 Apr 2025 14:12:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.401339
- Title: Occlusion-Aware Self-Supervised Monocular Depth Estimation for Weak-Texture Endoscopic Images
- Title(参考訳): オークテクスチュア内視鏡画像における閉塞型自己監督単眼深度推定
- Authors: Zebo Huang, Yinghui Wang,
- Abstract要約: 内視鏡的シーンに適した自己教師付き単眼深度推定ネットワークを提案する。
既存の方法は正確ではあるが、通常は一貫した照明を仮定する。
これらの変化は、誤った幾何学的解釈と信頼できない自己監督信号をもたらす。
- 参考スコア(独自算出の注目度): 1.1084686909647639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a self-supervised monocular depth estimation network tailored for endoscopic scenes, aiming to infer depth within the gastrointestinal tract from monocular images. Existing methods, though accurate, typically assume consistent illumination, which is often violated due to dynamic lighting and occlusions caused by GI motility. These variations lead to incorrect geometric interpretations and unreliable self-supervised signals, degrading depth reconstruction quality. To address this, we introduce an occlusion-aware self-supervised framework. First, we incorporate an occlusion mask for data augmentation, generating pseudo-labels by simulating viewpoint-dependent occlusion scenarios. This enhances the model's ability to learn robust depth features under partial visibility. Second, we leverage semantic segmentation guided by non-negative matrix factorization, clustering convolutional activations to generate pseudo-labels in texture-deprived regions, thereby improving segmentation accuracy and mitigating information loss from lighting changes. Experimental results on the SCARED dataset show that our method achieves state-of-the-art performance in self-supervised depth estimation. Additionally, evaluations on the Endo-SLAM and SERV-CT datasets demonstrate strong generalization across diverse endoscopic environments.
- Abstract(参考訳): 単眼画像から消化管内の深度を推定することを目的とした内視鏡的シーンに適した自己監督型単眼深度推定ネットワークを提案する。
既存の手法は正確ではあるが、通常は一貫した照明を前提としており、しばしばGI運動によって引き起こされる動的照明と閉塞によって違反される。
これらの変化は、誤った幾何学的解釈と信頼できない自己監督信号をもたらし、深度復元の品質を低下させる。
この問題に対処するために,オクルージョンを意識した自己教師型フレームワークを導入する。
まず、データ拡張のためのオクルージョンマスクを組み込み、視点依存オクルージョンシナリオをシミュレートして擬似ラベルを生成する。
これにより、部分的な可視性の下で堅牢な深度特徴を学習するモデルの能力が向上する。
第2に,非負の行列因子化によるセマンティックセグメンテーション,クラスタ化畳み込みアクティベーションによって導かれるセマンティックセグメンテーションを活用し,テクスチャを欠いた領域で擬似ラベルを生成することにより,セマンティックセグメンテーションの精度を向上し,照明変化による情報損失を軽減する。
SCAREDデータセットを用いた実験結果から,本手法は自己監督深度推定における最先端性能を実現することが示された。
さらに、Endo-SLAMおよびSERV-CTデータセットの評価は、多様な内視鏡環境における強力な一般化を示す。
関連論文リスト
- Pseudo-Label Guided Real-World Image De-weathering: A Learning Framework with Imperfect Supervision [57.5699142476311]
非理想的な監視を伴う実世界のイメージデウェザリングのための統一的なソリューションを提案する。
本手法は,不完全整合型非整合性データセットのトレーニングにおいて,大きな利点を示す。
論文 参考訳(メタデータ) (2025-04-14T07:24:03Z) - Intrinsic Image Decomposition for Robust Self-supervised Monocular Depth Estimation on Reflective Surfaces [10.557788087220509]
自己教師付き単分子深度推定(SSMDE)は深層学習の分野で注目を集めている。
固有画像分解をSSMDEに組み込んだ新しいフレームワークを提案する。
本手法は単眼深度推定と内在画像分解の両方を相乗的に訓練する。
論文 参考訳(メタデータ) (2025-03-28T07:56:59Z) - Self-supervised Monocular Depth and Pose Estimation for Endoscopy with Generative Latent Priors [10.61978045582697]
内視鏡における3Dマッピングは、消化管(GI)内の定量的、全体的病変のキャラクタリゼーションを可能にする。
既存の合成データセットや複雑なモデルに依存する手法は、しばしば内視鏡的条件に挑戦する際の一般化性に欠ける。
本稿では,多変量オートエンコーダと生成潜在銀行を組み込んだ,頑健な自己監督型単眼深度とポーズ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-26T15:43:06Z) - Adaptive Stereo Depth Estimation with Multi-Spectral Images Across All Lighting Conditions [58.88917836512819]
本稿では,立体深度推定を取り入れた新しいフレームワークを提案し,正確な幾何学的制約を強制する。
照明の劣化がステレオマッチングに与える影響を軽減するために,劣化マスキングを導入する。
提案手法は,Multi-Spectral Stereo(MS2)データセット上でのSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-11-06T03:30:46Z) - Self-supervised Monocular Depth Estimation Based on Hierarchical Feature-Guided Diffusion [16.673178271652553]
自己監督型単分子深度推定は、地上の真実を示さずに訓練できるため、広く注目を集めている。
我々は,自己教師付き単眼深度推定のための独特の認知学習プロセスを備えた生成的拡散モデルを用いる。
我々は,KITTIとMake3Dデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-06-14T07:31:20Z) - DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Self-Supervised Monocular Depth and Ego-Motion Estimation in Endoscopy:
Appearance Flow to the Rescue [38.168759071532676]
単眼ビデオから深度とエゴモーションを計算するために,自己教師付き学習技術が応用されている。
本研究では,明るさの不整合問題に対処するため,外観フローと呼ばれる新しい概念を導入する。
我々は,単眼深度と自我運動を同時に推定する統合的な自己監督フレームワークを構築した。
論文 参考訳(メタデータ) (2021-12-15T13:51:10Z) - Self-Supervised Generative Adversarial Network for Depth Estimation in
Laparoscopic Images [13.996932179049978]
本稿では,ジェネレーティブ・ディバイサル・ネットワークに基づく自己教師型深度推定手法であるSADepthを提案する。
エンコーダデコーダジェネレータと、トレーニング中に幾何学的制約を組み込む識別器で構成される。
2つの公開データセットの実験により、SADepthは最新の最先端の教師なし手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-07-09T19:40:20Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。