論文の概要: SoftEnNet: Symbiotic Monocular Depth Estimation and Lumen Segmentation
for Colonoscopy Endorobots
- arxiv url: http://arxiv.org/abs/2301.08157v1
- Date: Thu, 19 Jan 2023 16:22:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 14:40:51.534807
- Title: SoftEnNet: Symbiotic Monocular Depth Estimation and Lumen Segmentation
for Colonoscopy Endorobots
- Title(参考訳): softennet : 内視鏡内視鏡内視鏡ロボットのための共生単細胞深さ推定とルーメンセグメンテーション
- Authors: Alwyn Mathew, Ludovic Magerand, Emanuele Trucco and Luigi Manfredi
- Abstract要約: 大腸癌は世界で3番目に多いがん死の原因である。
視覚ベースの自律型内視鏡は大腸内視鏡の手順を大幅に改善することができる。
- 参考スコア(独自算出の注目度): 2.9696400288366127
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Colorectal cancer is the third most common cause of cancer death worldwide.
Optical colonoscopy is the gold standard for detecting colorectal cancer;
however, about 25 percent of polyps are missed during the procedure. A
vision-based autonomous endorobot can improve colonoscopy procedures
significantly through systematic, complete screening of the colonic mucosa. The
reliable robot navigation needed requires a three-dimensional understanding of
the environment and lumen tracking to support autonomous tasks. We propose a
novel multi-task model that simultaneously predicts dense depth and lumen
segmentation with an ensemble of deep networks. The depth estimation
sub-network is trained in a self-supervised fashion guided by view synthesis;
the lumen segmentation sub-network is supervised. The two sub-networks are
interconnected with pathways that enable information exchange and thereby
mutual learning. As the lumen is in the image's deepest visual space, lumen
segmentation helps with the depth estimation at the farthest location. In turn,
the estimated depth guides the lumen segmentation network as the lumen location
defines the farthest scene location. Unlike other environments, view synthesis
often fails in the colon because of the deformable wall, textureless surface,
specularities, and wide field of view image distortions, all challenges that
our pipeline addresses. We conducted qualitative analysis on a synthetic
dataset and quantitative analysis on a colon training model and real
colonoscopy videos. The experiments show that our model predicts accurate
scale-invariant depth maps and lumen segmentation from colonoscopy images in
near real-time.
- Abstract(参考訳): 大腸癌は世界で3番目に多いがんの死因である。
大腸内視鏡検査は大腸癌の診断に最適であるが,術中はポリープの約25%が欠如している。
視覚ベースの自律型エンドロボットは大腸粘膜の体系的で完全なスクリーニングを通じて大腸内視鏡の手順を著しく改善することができる。
信頼性の高いロボットナビゲーションは、自律的なタスクをサポートするために環境と路面追跡を3次元的に理解する必要がある。
本稿では,深層ネットワークのアンサンブルと密集深度とルーメンセグメンテーションを同時に予測する新しいマルチタスクモデルを提案する。
深度推定サブネットワークは、ビュー合成による自己教師あり方式で訓練され、ルーメンセグメンテーションサブネットワークは教師ありである。
2つのサブネットワークは、情報交換と相互学習を可能にする経路と相互接続されている。
ルーメンは画像の最深部にあるため、ルーメンのセグメンテーションは最深部での深さ推定に役立つ。
推定深度は、ルーメン位置が最遠のシーン位置を定義するため、ルーメンセグメンテーションネットワークを誘導する。
他の環境とは異なり、ビュー合成は、変形可能な壁、テクスチャのない表面、スペクティリティ、広い視野のビューイメージ歪など、パイプラインが対処するすべての課題のために、大腸で失敗することが多い。
人工的データセットの質的解析を行い,大腸トレーニングモデルと実大腸内視鏡画像の定量的解析を行った。
実験の結果,大腸内視鏡画像から高精度なスケール不変深さマップとルーメンセグメンテーションをほぼリアルタイムに予測できることがわかった。
関連論文リスト
- Multi-task learning with cross-task consistency for improved depth
estimation in colonoscopy [0.2995885872626565]
我々は、共有エンコーダと2つのデコーダ、すなわち表面正規デコーダと深度推定器を備えた新しいマルチタスク学習(MTL)アプローチを開発する。
比較誤差は14.17%、$delta_1$精度は10.4%改善した。
論文 参考訳(メタデータ) (2023-11-30T16:13:17Z) - Leveraging a realistic synthetic database to learn Shape-from-Shading
for estimating the colon depth in colonoscopy images [0.20482269513546453]
本研究は,単眼的大腸内視鏡画像から1フレームの大腸深度マップを推定する新しい手法を提案する。
生成した深度マップは、光源に関する結腸壁のシェーディング変動から推定される。
古典的な畳み込みニューラルネットワークアーキテクチャは、深さマップを推定するためにゼロから訓練される。
論文 参考訳(メタデータ) (2023-11-08T21:14:56Z) - SimCol3D -- 3D Reconstruction during Colonoscopy Challenge [28.115701091524606]
EndoVisのサブチャンジSimCol3Dは、大腸内視鏡におけるデータ駆動深度と予測の促進を目的としている。
仮想大腸内視鏡の深度予測は頑健に解けるが, ポーズ推定は未解決の課題である。
論文 参考訳(メタデータ) (2023-07-20T22:41:23Z) - Stain based contrastive co-training for histopathological image analysis [61.87751502143719]
本稿では,ヒストリボリューション画像の分類のための,新しい半教師付き学習手法を提案する。
我々は、半教師付き学習フレームワークを作成するために、パッチレベルのアノテーションと、新しいコトレーニング損失を併用した強力な監視を採用する。
透明細胞腎細胞および前立腺癌に対するアプローチを評価し,最先端の半教師あり学習法の改善を実証した。
論文 参考訳(メタデータ) (2022-06-24T22:25:31Z) - On the Uncertain Single-View Depths in Endoscopies [12.779570691818753]
内視鏡画像から深度を推定することは、幅広いAI支援技術の前提条件である。
本稿では,コロンコピーにおける一視点深度推定のためのベイズディープネットワークを初めて検討する。
1)3つのデータセットにおける深度推定のためのベイジアンディープ・ネットワークの網羅的分析を行い,合成から現実へのドメイン変更に関する課題と結論を明らかにするとともに,教師の不確かさを考慮に入れた新しい教師・学生による深度学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T14:24:17Z) - Adversarial Domain Feature Adaptation for Bronchoscopic Depth Estimation [111.89519571205778]
そこで本研究では,深度推定のためのドメイン適応手法を提案する。
提案する2段階構造は,まず,ラベル付き合成画像を用いた深度推定ネットワークを教師付きで訓練する。
実験の結果,提案手法は実画像上でのネットワーク性能をかなりの差で向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-24T08:11:34Z) - Deep Learning-based Biological Anatomical Landmark Detection in
Colonoscopy Videos [21.384094148149003]
大腸内視鏡画像における生物学的な解剖学的ランドマークを検出するための,新しい深層学習に基づくアプローチを提案する。
平均検出精度は99.75%に達し、平均IoUは0.91であり、予測されるランドマーク周期と地上の真実との高い類似性を示している。
論文 参考訳(メタデータ) (2021-08-06T05:52:32Z) - Residual Moment Loss for Medical Image Segmentation [56.72261489147506]
位置情報は,対象物体の多様体構造を捉えた深層学習モデルに有効であることが証明された。
既存のほとんどの手法は、ネットワークが学習するために、位置情報を暗黙的にエンコードする。
セグメント化対象の位置情報を明示的に埋め込むために,新しい損失関数,すなわち残差モーメント(RM)損失を提案する。
論文 参考訳(メタデータ) (2021-06-27T09:31:49Z) - Generalize Ultrasound Image Segmentation via Instant and Plug & Play
Style Transfer [65.71330448991166]
ディープセグメンテーションモデルは、外観が不明な画像に一般化する。
モデルの再トレーニングは、高いレイテンシと複雑なパイプラインにつながる。
未知の外観変化下での堅牢なセグメンテーションのための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-11T05:45:30Z) - PraNet: Parallel Reverse Attention Network for Polyp Segmentation [155.93344756264824]
大腸内視鏡画像の高精度なポリープ分割のための並列リバースアテンションネットワーク(PraNet)を提案する。
並列部分復号器(PPD)を用いて,まず高層層に特徴を集約する。
さらに,エリアとバウンダリの関連性を確立するために,リバースアテンション(RA)モジュールを用いて境界キューをマイニングする。
論文 参考訳(メタデータ) (2020-06-13T08:13:43Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。