論文の概要: Deep Transformers for Fast Small Intestine Grounding in Capsule
Endoscope Video
- arxiv url: http://arxiv.org/abs/2104.02866v1
- Date: Wed, 7 Apr 2021 02:35:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:52:42.215756
- Title: Deep Transformers for Fast Small Intestine Grounding in Capsule
Endoscope Video
- Title(参考訳): カプセル内視鏡ビデオにおける高速小腸接地用深部トランスフォーマー
- Authors: Xinkai Zhao, Chaowei Fang, Feng Gao, De-Jun Fan, Xutao Lin, Guanbin Li
- Abstract要約: そこで本研究では,カプセル内視鏡による小腸撮影範囲の深部モデルを提案する。
これは深層ニューラルネットワーク法を用いて小腸接地タスクを攻撃する最初の試みである。
- 参考スコア(独自算出の注目度): 42.84449937667722
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Capsule endoscopy is an evolutional technique for examining and diagnosing
intractable gastrointestinal diseases. Because of the huge amount of data,
analyzing capsule endoscope videos is very time-consuming and labor-intensive
for gastrointestinal medicalists. The development of intelligent long video
analysis algorithms for regional positioning and analysis of capsule endoscopic
video is therefore essential to reduce the workload of clinicians and assist in
improving the accuracy of disease diagnosis. In this paper, we propose a deep
model to ground shooting range of small intestine from a capsule endoscope
video which has duration of tens of hours. This is the first attempt to attack
the small intestine grounding task using deep neural network method. We model
the task as a 3-way classification problem, in which every video frame is
categorized into esophagus/stomach, small intestine or colorectum. To explore
long-range temporal dependency, a transformer module is built to fuse features
of multiple neighboring frames. Based on the classification model, we devise an
efficient search algorithm to efficiently locate the starting and ending
shooting boundaries of the small intestine. Without searching the small
intestine exhaustively in the full video, our method is implemented via
iteratively separating the video segment along the direction to the target
boundary in the middle. We collect 113 videos from a local hospital to validate
our method. In the 5-fold cross validation, the average IoU between the small
intestine segments located by our method and the ground-truths annotated by
broad-certificated gastroenterologists reaches 0.945.
- Abstract(参考訳): カプセル内視鏡は、難治性消化管疾患を検査し診断するための進化的手法である。
大量のデータがあるため、カプセル内視鏡ビデオの解析は非常に時間がかかり、消化器医にとって労力がかかる。
カプセル内視鏡画像の局所的位置決めと解析のためのインテリジェントな長ビデオ解析アルゴリズムの開発は,臨床医の作業量削減と疾患診断の精度向上に不可欠である。
本稿では, カプセル内視鏡ビデオから, 数千時間経過した小腸の射撃範囲の深部モデルを提案する。
これは深層ニューラルネットワーク法を用いて小腸接地タスクを攻撃する最初の試みである。
課題を3段階の分類問題としてモデル化し,全ビデオフレームを食道・胃・小腸・大腸癌に分類した。
長距離の時間依存を調べるために、複数の隣接するフレームの特徴を融合するトランスフォーマーモジュールが構築されている。
分類モデルに基づいて,小腸の開始と終了の境界を効率的に探索する効率的な探索アルゴリズムを考案した。
本手法は,全ビデオで全小腸を網羅的に検索することなく,ビデオセグメントを中央の目標境界方向に沿って反復的に分離して実施する。
地元の病院から113本のビデオを収集し,その方法を検証する。
5倍のクロスバリデーションでは,当法で位置する小腸部分と広範な胃腸内科医が注釈を付した基底部との間の平均iouが0.945に到達した。
関連論文リスト
- 3D Reconstruction of the Human Colon from Capsule Endoscope Video [2.3513645401551337]
本研究では,ヒト大腸全切片の3次元モデル構築の可能性について,ワイヤレスカプセル内視鏡による画像シーケンスを用いて検討した。
近年のヒト消化器系の仮想グラフィックベースモデルでは、歪みやアーティファクトの有効化や無効化が可能なため、問題の解決が可能になっている。
論文 参考訳(メタデータ) (2024-07-21T17:31:38Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - CodaMal: Contrastive Domain Adaptation for Malaria Detection in Low-Cost Microscopes [51.5625352379093]
マラリアは世界中で大きな問題であり、診断には低コストの顕微鏡(LCM)で効果的に動作するスケーラブルなソリューションが必要である。
ディープラーニングに基づく手法は、顕微鏡画像からコンピュータ支援による診断に成功している。
これらの方法には、マラリア原虫の感染した細胞とその生活段階を示す注釈画像が必要である。
LCMからの注記画像は、高精細顕微鏡(HCM)からの注記画像と比較して医療専門家の負担を著しく増大させる
論文 参考訳(メタデータ) (2024-02-16T06:57:03Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Unsupervised Shot Boundary Detection for Temporal Segmentation of Long
Capsule Endoscopy Videos [0.0]
医師は消化器内視鏡(英語版) (CE) を非侵襲的、非外科的処置として使用し、全消化管 (GI) を検査する。
1回のCE検査は8時間から11時間で8万フレームを生成でき、ビデオとしてコンパイルされる。
論文 参考訳(メタデータ) (2021-10-18T07:22:46Z) - Deep Learning-based Biological Anatomical Landmark Detection in
Colonoscopy Videos [21.384094148149003]
大腸内視鏡画像における生物学的な解剖学的ランドマークを検出するための,新しい深層学習に基づくアプローチを提案する。
平均検出精度は99.75%に達し、平均IoUは0.91であり、予測されるランドマーク周期と地上の真実との高い類似性を示している。
論文 参考訳(メタデータ) (2021-08-06T05:52:32Z) - Lesion2Vec: Deep Metric Learning for Few-Shot Multiple Lesions
Recognition in Wireless Capsule Endoscopy Video [0.0]
wireless capsule endoscopy (wce) は、消化管全体を非侵襲的に可視化することで、従来の内視鏡手術に革命をもたらした。
単一のビデオは最大8時間で3万から10万の画像を生成できる。
We propose a metric-based learning framework followed with a few-shot lesion recognition in WCE data。
論文 参考訳(メタデータ) (2021-01-11T23:58:56Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z) - Motion-based Camera Localization System in Colonoscopy Videos [7.800211144015489]
本稿では,カメラの相対的な位置を推定し,大腸を解剖学的セグメントに分類するカメラローカライゼーションシステムを提案する。
実験の結果,提案手法の性能は他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-03T03:57:12Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。