論文の概要: Deep Learning-based Biological Anatomical Landmark Detection in
Colonoscopy Videos
- arxiv url: http://arxiv.org/abs/2108.02948v1
- Date: Fri, 6 Aug 2021 05:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:32:32.704689
- Title: Deep Learning-based Biological Anatomical Landmark Detection in
Colonoscopy Videos
- Title(参考訳): 内視鏡映像における深層学習に基づく生体解剖学的ランドマーク検出
- Authors: Kaiwei Che, Chengwei Ye, Yibing Yao, Nachuan Ma, Ruo Zhang, Jiankun
Wang, and Max Q.-H. Meng
- Abstract要約: 大腸内視鏡画像における生物学的な解剖学的ランドマークを検出するための,新しい深層学習に基づくアプローチを提案する。
平均検出精度は99.75%に達し、平均IoUは0.91であり、予測されるランドマーク周期と地上の真実との高い類似性を示している。
- 参考スコア(独自算出の注目度): 21.384094148149003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Colonoscopy is a standard imaging tool for visualizing the entire
gastrointestinal (GI) tract of patients to capture lesion areas. However, it
takes the clinicians excessive time to review a large number of images
extracted from colonoscopy videos. Thus, automatic detection of biological
anatomical landmarks within the colon is highly demanded, which can help reduce
the burden of clinicians by providing guidance information for the locations of
lesion areas. In this article, we propose a novel deep learning-based approach
to detect biological anatomical landmarks in colonoscopy videos. First, raw
colonoscopy video sequences are pre-processed to reject interference frames.
Second, a ResNet-101 based network is used to detect three biological
anatomical landmarks separately to obtain the intermediate detection results.
Third, to achieve more reliable localization of the landmark periods within the
whole video period, we propose to post-process the intermediate detection
results by identifying the incorrectly predicted frames based on their temporal
distribution and reassigning them back to the correct class. Finally, the
average detection accuracy reaches 99.75\%. Meanwhile, the average IoU of 0.91
shows a high degree of similarity between our predicted landmark periods and
ground truth. The experimental results demonstrate that our proposed model is
capable of accurately detecting and localizing biological anatomical landmarks
from colonoscopy videos.
- Abstract(参考訳): 大腸内視鏡は、病変領域を捉えるために患者の消化管全体(gi)を可視化する標準的なイメージングツールである。
しかし,大腸内視鏡ビデオから抽出した多数の画像の精査には臨床医の時間を要する。
これにより,大腸内の生物学的解剖学的所見の自動検出が要求され,病変部位の案内情報を提供することで臨床医の負担を軽減することができる。
本稿では,大腸内視鏡ビデオにおける生体解剖学的ランドマークを検出するための,新しい深層学習に基づくアプローチを提案する。
まず、生の大腸内視鏡ビデオシーケンスを前処理して干渉フレームを拒否する。
次に、ResNet-101ベースのネットワークを用いて、3つの生物学的解剖学的ランドマークを別々に検出し、中間検出結果を得る。
第3に,ビデオ全体のランドマーク期間のより信頼性の高いローカライズを実現するため,時間分布に基づいて不正確な予測フレームを特定し,適切なクラスに再割り当てすることで,中間検出結果を後処理することを提案する。
最後に、平均検出精度は99.75\%に達する。
一方、平均の0.91のIoUは、予測されるランドマーク期間と地上の真実との間に高い類似性を示す。
実験の結果,本モデルは大腸内視鏡映像から生体解剖学的ランドマークを高精度に検出・局在化できることがわかった。
関連論文リスト
- Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - SoftEnNet: Symbiotic Monocular Depth Estimation and Lumen Segmentation
for Colonoscopy Endorobots [2.9696400288366127]
大腸癌は世界で3番目に多いがん死の原因である。
視覚ベースの自律型内視鏡は大腸内視鏡の手順を大幅に改善することができる。
論文 参考訳(メタデータ) (2023-01-19T16:22:17Z) - Robust Landmark-based Stent Tracking in X-ray Fluoroscopy [10.917460255497227]
単一ステントトラッキングのためのエンドツーエンドのディープラーニングフレームワークを提案する。
U-Netベースのランドマーク検出、ResNetベースのステント提案、機能抽出の3つの階層モジュールで構成されている。
実験により,本手法は最先端のポイントベース追跡モデルと比較して,検出精度が有意に向上していることが示された。
論文 参考訳(メタデータ) (2022-07-20T14:20:03Z) - Segmentation of kidney stones in endoscopic video feeds [2.572404739180802]
生のビデオからデータセットを構築する方法と、可能な限り多くのプロセスを自動化するパイプラインを開発する方法について説明します。
また, リアルタイム使用の可能性を示すため, 最適なトレーニングモデルにより, 毎秒30フレームの動画を正確にアノテートできることを確認した。
論文 参考訳(メタデータ) (2022-04-29T16:00:52Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Siamese Network Features for Endoscopy Image and Video Localization [0.0]
位置決めフレームは、異常な位置に関する貴重な情報を提供する。
本研究では,メタラーニングと深層学習を組み合わせることで,内視鏡画像とビデオの両方をローカライズする。
論文 参考訳(メタデータ) (2021-03-15T16:24:30Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z) - Motion-based Camera Localization System in Colonoscopy Videos [7.800211144015489]
本稿では,カメラの相対的な位置を推定し,大腸を解剖学的セグメントに分類するカメラローカライゼーションシステムを提案する。
実験の結果,提案手法の性能は他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-03T03:57:12Z) - Assisted Probe Positioning for Ultrasound Guided Radiotherapy Using
Image Sequence Classification [55.96221340756895]
前立腺外照射療法における経皮的超音波画像誘導は, 患者設定中の各セッションにおけるプローブと前立腺の整合性を必要とする。
本研究では,画像とプローブ位置データの共同分類により,高精度なプローブ配置を確保する方法を示す。
マルチ入力マルチタスクアルゴリズムを用いて、光学的追跡された超音波プローブからの空間座標データを、繰り返しニューラルネットワークを用いて画像クラスシファイアと組み合わせ、リアルタイムで2セットの予測を生成する。
このアルゴリズムは平均(標準偏差)3.7$circ$ (1.2$circ$)の範囲内で最適なプローブアライメントを同定する。
論文 参考訳(メタデータ) (2020-10-06T13:55:02Z) - Spatio-spectral deep learning methods for in-vivo hyperspectral
laryngeal cancer detection [49.32653090178743]
頭頸部腫瘍の早期発見は患者の生存に不可欠である。
ハイパースペクトルイメージング(HSI)は頭頸部腫瘍の非侵襲的検出に用いられる。
HSIに基づく喉頭癌診断のための複数の深層学習手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T17:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。