論文の概要: SMUDLP: Self-Teaching Multi-Frame Unsupervised Endoscopic Depth
Estimation with Learnable Patchmatch
- arxiv url: http://arxiv.org/abs/2205.15034v1
- Date: Mon, 30 May 2022 12:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 17:03:25.601423
- Title: SMUDLP: Self-Teaching Multi-Frame Unsupervised Endoscopic Depth
Estimation with Learnable Patchmatch
- Title(参考訳): SMUDLP:学習型パッチマッチを用いたマルチフレーム非教師付き内視鏡深度推定
- Authors: Shuwei Shao, Zhongcai Pei, Weihai Chen, Xingming Wu, Zhong Liu,
Zhengguo Li
- Abstract要約: 教師なし単分子深度推定モデルは、訓練期間中に隣接するフレームを監視信号として利用する。
時間的相関フレームは、手術ナビゲーションなどの多くの臨床応用のために、推論時にも利用可能である。
SMUDLPは,多フレーム単眼の内視鏡的深度推定のための,新規かつ教師なしのパラダイムである。
- 参考スコア(独自算出の注目度): 25.35009126980672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised monocular trained depth estimation models make use of adjacent
frames as a supervisory signal during the training phase. However, temporally
correlated frames are also available at inference time for many clinical
applications, e.g., surgical navigation. The vast majority of monocular systems
do not exploit this valuable signal that could be deployed to enhance the depth
estimates. Those that do, achieve only limited gains due to the unique
challenges in endoscopic scenes, such as low and homogeneous textures and
inter-frame brightness fluctuations. In this work, we present SMUDLP, a novel
and unsupervised paradigm for multi-frame monocular endoscopic depth
estimation. The SMUDLP integrates a learnable patchmatch module to adaptively
increase the discriminative ability in low-texture and homogeneous-texture
regions, and enforces cross-teaching and self-teaching consistencies to provide
efficacious regularizations towards brightness fluctuations. Our detailed
experiments on both SCARED and Hamlyn datasets indicate that the SMUDLP exceeds
state-of-the-art competitors by a large margin, including those that use single
or multiple frames at inference time. The source code and trained models will
be publicly available upon the acceptance.
- Abstract(参考訳): 教師なし単眼訓練深度推定モデルは、訓練段階で隣接するフレームを監視信号として利用する。
しかし、時間的に相関したフレームは、手術ナビゲーションなどの多くの臨床応用のために、推論時にも利用可能である。
大部分の単眼系は、深さの推定を強化するために展開できるこの貴重な信号を使用しない。
そのため、低均質なテクスチャやフレーム間の輝度変動など、内視鏡的な場面で特有の課題があるため、限られた利益しか得られない。
本研究では,多フレーム単眼の内視鏡的深度推定のための新しい,教師なしパラダイムSMUDLPを提案する。
smudlpは学習可能なパッチマッチモジュールを統合し、低テクスチャおよび均質テクスチャ領域における識別能力を適応的に向上させ、クロスティーチングおよび自己ティーチング構成を強制し、輝度変動に対して効果的な正規化を提供する。
SCAREDとHamlynのデータセットに関する詳細な実験によると、SMUDLPは、単一のフレームまたは複数のフレームを推論時に使用するものを含め、最先端の競合よりも大きなマージンで優れている。
ソースコードとトレーニングされたモデルは、受け入れ次第公開される。
関連論文リスト
- A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - OCAI: Improving Optical Flow Estimation by Occlusion and Consistency Aware Interpolation [55.676358801492114]
本稿では,中間映像フレームと光フローを同時に生成することで,フレームのあいまいさを頑健に支援するOCAIを提案する。
我々は,Sintel や KITTI などの既存のベンチマークにおいて,優れた品質と光フロー精度を実証した。
論文 参考訳(メタデータ) (2024-03-26T20:23:48Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Learning to Fuse Monocular and Multi-view Cues for Multi-frame Depth
Estimation in Dynamic Scenes [51.20150148066458]
一般化されたマスクを必要とせず,ボリュームとして符号化された多視点と単眼のキューを融合させる新しい手法を提案する。
実世界のデータセットを用いた実験は,提案手法の有効性と性能を実証する。
論文 参考訳(メタデータ) (2023-04-18T13:55:24Z) - Assessing Coarse-to-Fine Deep Learning Models for Optic Disc and Cup
Segmentation in Fundus Images [0.0]
粗い深層学習アルゴリズムは、底面画像の鉛直カップ・トゥ・ディスク比(vCDR)を効率的に測定するために用いられる。
5つの公開データベースを用いたOD/OCセグメンテーションのための粗粒度設計の包括的解析を行う。
分析の結果,これらのアルゴリズムは必ずしも標準のマルチクラスシングルステージモデルより優れているとは限らないことがわかった。
論文 参考訳(メタデータ) (2022-09-28T19:19:16Z) - Anomaly Detection in Retinal Images using Multi-Scale Deep Feature
Sparse Coding [30.097208168480826]
本稿では,網膜画像の異常検出のための教師なしアプローチを導入し,この問題を克服する。
我々は,Eye-Q,IDRiD,OCTIDデータセット上での最先端のSPADEに対して,AUCスコアが7.8%,6.7%,12.1%向上した。
論文 参考訳(メタデータ) (2022-01-27T13:36:22Z) - Self-Supervised Monocular Depth and Ego-Motion Estimation in Endoscopy:
Appearance Flow to the Rescue [38.168759071532676]
単眼ビデオから深度とエゴモーションを計算するために,自己教師付き学習技術が応用されている。
本研究では,明るさの不整合問題に対処するため,外観フローと呼ばれる新しい概念を導入する。
我々は,単眼深度と自我運動を同時に推定する統合的な自己監督フレームワークを構築した。
論文 参考訳(メタデータ) (2021-12-15T13:51:10Z) - Incremental Cross-Domain Adaptation for Robust Retinopathy Screening via
Bayesian Deep Learning [7.535751594024775]
網膜症は、タイムリーに治療されないと、深刻な視覚障害や失明を引き起こす網膜疾患のグループである。
本稿では, 深い分類モデルを用いて, 異常網膜病理を段階的に学習することのできる, 漸進的なクロスドメイン適応手法を提案する。
提案したフレームワークは、6つの公開データセットで評価され、全体的な精度とF1スコアをそれぞれ0.9826と0.9846で達成することで、最先端の競合他社を上回っている。
論文 参考訳(メタデータ) (2021-10-18T13:45:21Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。