論文の概要: Deep Learning-based Biological Anatomical Landmark Detection in
Colonoscopy Videos
- arxiv url: http://arxiv.org/abs/2108.02948v1
- Date: Fri, 6 Aug 2021 05:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:32:32.704689
- Title: Deep Learning-based Biological Anatomical Landmark Detection in
Colonoscopy Videos
- Title(参考訳): 内視鏡映像における深層学習に基づく生体解剖学的ランドマーク検出
- Authors: Kaiwei Che, Chengwei Ye, Yibing Yao, Nachuan Ma, Ruo Zhang, Jiankun
Wang, and Max Q.-H. Meng
- Abstract要約: 大腸内視鏡画像における生物学的な解剖学的ランドマークを検出するための,新しい深層学習に基づくアプローチを提案する。
平均検出精度は99.75%に達し、平均IoUは0.91であり、予測されるランドマーク周期と地上の真実との高い類似性を示している。
- 参考スコア(独自算出の注目度): 21.384094148149003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Colonoscopy is a standard imaging tool for visualizing the entire
gastrointestinal (GI) tract of patients to capture lesion areas. However, it
takes the clinicians excessive time to review a large number of images
extracted from colonoscopy videos. Thus, automatic detection of biological
anatomical landmarks within the colon is highly demanded, which can help reduce
the burden of clinicians by providing guidance information for the locations of
lesion areas. In this article, we propose a novel deep learning-based approach
to detect biological anatomical landmarks in colonoscopy videos. First, raw
colonoscopy video sequences are pre-processed to reject interference frames.
Second, a ResNet-101 based network is used to detect three biological
anatomical landmarks separately to obtain the intermediate detection results.
Third, to achieve more reliable localization of the landmark periods within the
whole video period, we propose to post-process the intermediate detection
results by identifying the incorrectly predicted frames based on their temporal
distribution and reassigning them back to the correct class. Finally, the
average detection accuracy reaches 99.75\%. Meanwhile, the average IoU of 0.91
shows a high degree of similarity between our predicted landmark periods and
ground truth. The experimental results demonstrate that our proposed model is
capable of accurately detecting and localizing biological anatomical landmarks
from colonoscopy videos.
- Abstract(参考訳): 大腸内視鏡は、病変領域を捉えるために患者の消化管全体(gi)を可視化する標準的なイメージングツールである。
しかし,大腸内視鏡ビデオから抽出した多数の画像の精査には臨床医の時間を要する。
これにより,大腸内の生物学的解剖学的所見の自動検出が要求され,病変部位の案内情報を提供することで臨床医の負担を軽減することができる。
本稿では,大腸内視鏡ビデオにおける生体解剖学的ランドマークを検出するための,新しい深層学習に基づくアプローチを提案する。
まず、生の大腸内視鏡ビデオシーケンスを前処理して干渉フレームを拒否する。
次に、ResNet-101ベースのネットワークを用いて、3つの生物学的解剖学的ランドマークを別々に検出し、中間検出結果を得る。
第3に,ビデオ全体のランドマーク期間のより信頼性の高いローカライズを実現するため,時間分布に基づいて不正確な予測フレームを特定し,適切なクラスに再割り当てすることで,中間検出結果を後処理することを提案する。
最後に、平均検出精度は99.75\%に達する。
一方、平均の0.91のIoUは、予測されるランドマーク期間と地上の真実との間に高い類似性を示す。
実験の結果,本モデルは大腸内視鏡映像から生体解剖学的ランドマークを高精度に検出・局在化できることがわかった。
関連論文リスト
- A novel open-source ultrasound dataset with deep learning benchmarks for
spinal cord injury localization and anatomical segmentation [1.02101998415327]
ブタ脊髄の矢状切片からなる10,223モード(Bモード)画像の超音波データセットを提案する。
損傷部位をローカライズするために,いくつかの最先端オブジェクト検出アルゴリズムの性能指標をベンチマークした。
ヒトの超音波脊髄画像におけるセグメンテーションモデルのゼロショット一般化能力を評価する。
論文 参考訳(メタデータ) (2024-09-24T20:22:59Z) - ToDER: Towards Colonoscopy Depth Estimation and Reconstruction with Geometry Constraint Adaptation [67.22294293695255]
そこで本稿では,ToDERという双方向適応アーキテクチャを用いて,高精度な深度推定を行う新しいパイプラインを提案する。
以上の結果から,本手法は実写および合成大腸内視鏡ビデオの深度マップを精度良く予測できることが示唆された。
論文 参考訳(メタデータ) (2024-07-23T14:24:26Z) - Spatial-aware Attention Generative Adversarial Network for Semi-supervised Anomaly Detection in Medical Image [63.59114880750643]
本稿では,一級半教師付き健康画像生成のための空間意識生成ネットワーク(SAGAN)について紹介する。
SAGANは、正常な画像の復元と擬似異常画像の復元によって導かれる、ラベルのないデータに対応する高品質な健康画像を生成する。
3つの医学データセットに対する大規模な実験は、提案されたSAGANが最先端の手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-05-21T15:41:34Z) - Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - SoftEnNet: Symbiotic Monocular Depth Estimation and Lumen Segmentation
for Colonoscopy Endorobots [2.9696400288366127]
大腸癌は世界で3番目に多いがん死の原因である。
視覚ベースの自律型内視鏡は大腸内視鏡の手順を大幅に改善することができる。
論文 参考訳(メタデータ) (2023-01-19T16:22:17Z) - Segmentation of kidney stones in endoscopic video feeds [2.572404739180802]
生のビデオからデータセットを構築する方法と、可能な限り多くのプロセスを自動化するパイプラインを開発する方法について説明します。
また, リアルタイム使用の可能性を示すため, 最適なトレーニングモデルにより, 毎秒30フレームの動画を正確にアノテートできることを確認した。
論文 参考訳(メタデータ) (2022-04-29T16:00:52Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Siamese Network Features for Endoscopy Image and Video Localization [0.0]
位置決めフレームは、異常な位置に関する貴重な情報を提供する。
本研究では,メタラーニングと深層学習を組み合わせることで,内視鏡画像とビデオの両方をローカライズする。
論文 参考訳(メタデータ) (2021-03-15T16:24:30Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z) - Motion-based Camera Localization System in Colonoscopy Videos [7.800211144015489]
本稿では,カメラの相対的な位置を推定し,大腸を解剖学的セグメントに分類するカメラローカライゼーションシステムを提案する。
実験の結果,提案手法の性能は他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-03T03:57:12Z) - Assisted Probe Positioning for Ultrasound Guided Radiotherapy Using
Image Sequence Classification [55.96221340756895]
前立腺外照射療法における経皮的超音波画像誘導は, 患者設定中の各セッションにおけるプローブと前立腺の整合性を必要とする。
本研究では,画像とプローブ位置データの共同分類により,高精度なプローブ配置を確保する方法を示す。
マルチ入力マルチタスクアルゴリズムを用いて、光学的追跡された超音波プローブからの空間座標データを、繰り返しニューラルネットワークを用いて画像クラスシファイアと組み合わせ、リアルタイムで2セットの予測を生成する。
このアルゴリズムは平均(標準偏差)3.7$circ$ (1.2$circ$)の範囲内で最適なプローブアライメントを同定する。
論文 参考訳(メタデータ) (2020-10-06T13:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。