論文の概要: Deep Transformers for Fast Small Intestine Grounding in Capsule
Endoscope Video
- arxiv url: http://arxiv.org/abs/2104.02866v1
- Date: Wed, 7 Apr 2021 02:35:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:52:42.215756
- Title: Deep Transformers for Fast Small Intestine Grounding in Capsule
Endoscope Video
- Title(参考訳): カプセル内視鏡ビデオにおける高速小腸接地用深部トランスフォーマー
- Authors: Xinkai Zhao, Chaowei Fang, Feng Gao, De-Jun Fan, Xutao Lin, Guanbin Li
- Abstract要約: そこで本研究では,カプセル内視鏡による小腸撮影範囲の深部モデルを提案する。
これは深層ニューラルネットワーク法を用いて小腸接地タスクを攻撃する最初の試みである。
- 参考スコア(独自算出の注目度): 42.84449937667722
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Capsule endoscopy is an evolutional technique for examining and diagnosing
intractable gastrointestinal diseases. Because of the huge amount of data,
analyzing capsule endoscope videos is very time-consuming and labor-intensive
for gastrointestinal medicalists. The development of intelligent long video
analysis algorithms for regional positioning and analysis of capsule endoscopic
video is therefore essential to reduce the workload of clinicians and assist in
improving the accuracy of disease diagnosis. In this paper, we propose a deep
model to ground shooting range of small intestine from a capsule endoscope
video which has duration of tens of hours. This is the first attempt to attack
the small intestine grounding task using deep neural network method. We model
the task as a 3-way classification problem, in which every video frame is
categorized into esophagus/stomach, small intestine or colorectum. To explore
long-range temporal dependency, a transformer module is built to fuse features
of multiple neighboring frames. Based on the classification model, we devise an
efficient search algorithm to efficiently locate the starting and ending
shooting boundaries of the small intestine. Without searching the small
intestine exhaustively in the full video, our method is implemented via
iteratively separating the video segment along the direction to the target
boundary in the middle. We collect 113 videos from a local hospital to validate
our method. In the 5-fold cross validation, the average IoU between the small
intestine segments located by our method and the ground-truths annotated by
broad-certificated gastroenterologists reaches 0.945.
- Abstract(参考訳): カプセル内視鏡は、難治性消化管疾患を検査し診断するための進化的手法である。
大量のデータがあるため、カプセル内視鏡ビデオの解析は非常に時間がかかり、消化器医にとって労力がかかる。
カプセル内視鏡画像の局所的位置決めと解析のためのインテリジェントな長ビデオ解析アルゴリズムの開発は,臨床医の作業量削減と疾患診断の精度向上に不可欠である。
本稿では, カプセル内視鏡ビデオから, 数千時間経過した小腸の射撃範囲の深部モデルを提案する。
これは深層ニューラルネットワーク法を用いて小腸接地タスクを攻撃する最初の試みである。
課題を3段階の分類問題としてモデル化し,全ビデオフレームを食道・胃・小腸・大腸癌に分類した。
長距離の時間依存を調べるために、複数の隣接するフレームの特徴を融合するトランスフォーマーモジュールが構築されている。
分類モデルに基づいて,小腸の開始と終了の境界を効率的に探索する効率的な探索アルゴリズムを考案した。
本手法は,全ビデオで全小腸を網羅的に検索することなく,ビデオセグメントを中央の目標境界方向に沿って反復的に分離して実施する。
地元の病院から113本のビデオを収集し,その方法を検証する。
5倍のクロスバリデーションでは,当法で位置する小腸部分と広範な胃腸内科医が注釈を付した基底部との間の平均iouが0.945に到達した。
関連論文リスト
- CodaMal: Contrastive Domain Adaptation for Malaria Detection in Low-Cost
Microscopes [56.3283655201407]
マラリアは世界中で大きな問題であり、診断には低コストの顕微鏡(LCM)で効果的に動作するスケーラブルなソリューションが必要である。
ディープラーニングに基づく手法は、顕微鏡画像からコンピュータ支援による診断に成功している。
これらの方法には、マラリア原虫の感染した細胞とその生活段階を示す注釈画像が必要である。
LCMからの注記画像は、高精細顕微鏡(HCM)からの注記画像と比較して医療専門家の負担を著しく増大させる
論文 参考訳(メタデータ) (2024-02-16T06:57:03Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Unsupervised Shot Boundary Detection for Temporal Segmentation of Long
Capsule Endoscopy Videos [0.0]
医師は消化器内視鏡(英語版) (CE) を非侵襲的、非外科的処置として使用し、全消化管 (GI) を検査する。
1回のCE検査は8時間から11時間で8万フレームを生成でき、ビデオとしてコンパイルされる。
論文 参考訳(メタデータ) (2021-10-18T07:22:46Z) - Deep Learning-based Biological Anatomical Landmark Detection in
Colonoscopy Videos [21.384094148149003]
大腸内視鏡画像における生物学的な解剖学的ランドマークを検出するための,新しい深層学習に基づくアプローチを提案する。
平均検出精度は99.75%に達し、平均IoUは0.91であり、予測されるランドマーク周期と地上の真実との高い類似性を示している。
論文 参考訳(メタデータ) (2021-08-06T05:52:32Z) - Lesion2Vec: Deep Metric Learning for Few-Shot Multiple Lesions
Recognition in Wireless Capsule Endoscopy Video [0.0]
wireless capsule endoscopy (wce) は、消化管全体を非侵襲的に可視化することで、従来の内視鏡手術に革命をもたらした。
単一のビデオは最大8時間で3万から10万の画像を生成できる。
We propose a metric-based learning framework followed with a few-shot lesion recognition in WCE data。
論文 参考訳(メタデータ) (2021-01-11T23:58:56Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z) - Motion-based Camera Localization System in Colonoscopy Videos [7.800211144015489]
本稿では,カメラの相対的な位置を推定し,大腸を解剖学的セグメントに分類するカメラローカライゼーションシステムを提案する。
実験の結果,提案手法の性能は他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-03T03:57:12Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - Colonoscope tracking method based on shape estimation network [36.08151254973927]
ポリープの見落としを減らすためには,内視鏡ナビゲーションシステムが必要である。
ナビゲーションシステムのための大腸内視鏡追跡手法を提案する。
大腸内視鏡挿入時の結腸形状を推定する形状推定ネットワーク(SEN)を利用する。
論文 参考訳(メタデータ) (2020-04-20T05:10:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。