論文の概要: Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos
- arxiv url: http://arxiv.org/abs/2012.15531v1
- Date: Thu, 31 Dec 2020 10:33:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 01:19:37.167533
- Title: Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos
- Title(参考訳): 大腸内視鏡ポリープ検出:医療報告画像からリアルタイムビデオへのドメイン適応
- Authors: Zhi-Qin Zhan, Huazhu Fu, Yan-Yao Yang, Jingjing Chen, Jie Liu, and
Yu-Gang Jiang
- Abstract要約: 大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
- 参考スコア(独自算出の注目度): 76.37907640271806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic colorectal polyp detection in colonoscopy video is a fundamental
task, which has received a lot of attention. Manually annotating polyp region
in a large scale video dataset is time-consuming and expensive, which limits
the development of deep learning techniques. A compromise is to train the
target model by using labeled images and infer on colonoscopy videos. However,
there are several issues between the image-based training and video-based
inference, including domain differences, lack of positive samples, and temporal
smoothness. To address these issues, we propose an Image-video-joint polyp
detection network (Ivy-Net) to address the domain gap between colonoscopy
images from historical medical reports and real-time videos. In our Ivy-Net, a
modified mixup is utilized to generate training data by combining the positive
images and negative video frames at the pixel level, which could learn the
domain adaptive representations and augment the positive samples.
Simultaneously, a temporal coherence regularization (TCR) is proposed to
introduce the smooth constraint on feature-level in adjacent frames and improve
polyp detection by unlabeled colonoscopy videos. For evaluation, a new large
colonoscopy polyp dataset is collected, which contains 3056 images from
historical medical reports of 889 positive patients and 7.5-hour videos of 69
patients (28 positive). The experiments on the collected dataset demonstrate
that our Ivy-Net achieves the state-of-the-art result on colonoscopy video.
- Abstract(参考訳): 大腸内視鏡ビデオにおける大腸ポリープの自動検出は重要な課題であり,注目されている。
大規模ビデオデータセットに手動でアノテートするポリプ領域は、時間と費用がかかり、ディープラーニング技術の開発が制限される。
妥協は、ラベル付き画像を使用してターゲットモデルを訓練し、大腸内視鏡ビデオで推論することである。
しかし、画像ベーストレーニングとビデオベース推論の間には、ドメイン差、陽性サンプルの欠如、時間的滑らかさなど、いくつかの問題がある。
そこで本稿では,過去の医療報告から大腸内視鏡画像とリアルタイムビデオとの領域ギャップに対処するため,ivy-net (image-video-joint polyp detection network) を提案する。
Ivy-Netでは,画素レベルの正のイメージと負の映像フレームを組み合わせて,ドメイン適応表現を学習し,正のサンプルを増強することにより,学習データを生成する。
同時に時間的コヒーレンス正則化 (TCR) を提案し, 隣接するフレームにおける特徴レベルのスムーズな制約を導入し, ラベル付き大腸内視鏡ビデオによるポリープ検出を改善する。
評価のために、新しい大腸内視鏡ポリープデータセットが収集され、889人の陽性患者の過去の医療報告と69人の7.5時間ビデオ(28の陽性)から3056枚の画像が得られた。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を得ることを示した。
関連論文リスト
- Self-Prompting Polyp Segmentation in Colonoscopy using Hybrid Yolo-SAM 2 Model [18.61909523131399]
本稿では,Segment Anything Model(SAM2)とYOLOv8モデルを統合することで,ポリプセグメンテーションの新たなアプローチを提案する。
本手法では,YOLOv8のバウンディングボックス予測を利用してSAM 2の入力プロンプトを自動生成することで,手動アノテーションの必要性を軽減している。
われわれは,5つのベンチマーク大腸内視鏡画像データセットと2つの大腸内視鏡ビデオデータセットの徹底的な試験を行い,この手法が画像分割タスクおよびビデオ分割タスクの最先端モデルを上回ることを示した。
論文 参考訳(メタデータ) (2024-09-14T17:11:37Z) - PolypDB: A Curated Multi-Center Dataset for Development of AI Algorithms in Colonoscopy [31.54817948734052]
3934の静止ポリプ画像を含む大規模公開データセットであるPolypDBを紹介する。
このデータセットは10人の消化器科医によって開発され、検証されている。
8つの一般的なセグメンテーション法と6つの標準ベンチマークポリープ検出法を用いて、各モダリティのベンチマークを提供する。
論文 参考訳(メタデータ) (2024-08-19T05:36:01Z) - EndoFinder: Online Image Retrieval for Explainable Colorectal Polyp Diagnosis [10.83700068295662]
EndoFinderはコンテンツベースの画像検索フレームワークである。
新たに検出されたポリプが与えられた参照データベースでは、'デジタルツイン'ポリプが見つかる。
新しいポリプの臨床的意味は、一致したポリプを参照して推測することができる。
論文 参考訳(メタデータ) (2024-07-16T05:40:17Z) - SSTFB: Leveraging self-supervised pretext learning and temporal self-attention with feature branching for real-time video polyp segmentation [4.027361638728112]
本稿では,自己教師型学習を補助課題として行うビデオポリープセグメンテーション手法と,表現学習を改善するための空間的時間的自己認識機構を提案する。
実験により, 現状技術(SOTA)法の改良が示された。
本研究は,Diceの類似度係数と交叉結合度の両方において,ネットワークの精度が3%以上,10%近く向上することが確認された。
論文 参考訳(メタデータ) (2024-06-14T17:33:11Z) - YONA: You Only Need One Adjacent Reference-frame for Accurate and Fast
Video Polyp Detection [80.68520401539979]
textbfYONA (textbfYou textbfOnly textbfNeed one textbfAdjacent Reference-frame)は、ビデオポリープ検出のための効率的なエンドツーエンドのトレーニングフレームワークである。
提案したYONAは,従来の最先端の競合他社よりも精度と速度の両面で優れています。
論文 参考訳(メタデータ) (2023-06-06T13:53:15Z) - Contrastive Transformer-based Multiple Instance Learning for Weakly
Supervised Polyp Frame Detection [30.51410140271929]
現在の大腸内視鏡ビデオからのポリープ検出法では、正常な(健康な)訓練画像のみを使用する。
我々は,ビデオレベルのラベル付き学習データを用いてフレームレベルのポリプを検出する弱教師付き異常検出タスクとして,ポリプ検出を定式化する。
論文 参考訳(メタデータ) (2022-03-23T01:30:48Z) - Automatic Polyp Segmentation via Multi-scale Subtraction Network [100.94922587360871]
臨床的には、正確なポリープセグメンテーションは大腸癌の早期発見に重要な情報を提供する。
既存のほとんどの手法はU字型構造に基づいており、デコーダで段階的に異なるレベルの特徴を融合させるために要素ワイド付加または結合を用いる。
大腸内視鏡画像からポリプを抽出するマルチスケールサブトラクションネットワーク(MSNet)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:54:07Z) - Colorectal Polyp Classification from White-light Colonoscopy Images via
Domain Alignment [57.419727894848485]
大腸内視鏡画像からの正確な診断を支援するためには,コンピュータ支援診断システムが必要である。
これまでのほとんどの研究では、Narrow-Band Imaging (NBI) や他の拡張画像を用いて、ポリプの分化モデルの開発を試みている。
正確な大腸ポリープ分類のための教師/学生アーキテクチャに基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-05T09:31:46Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - PraNet: Parallel Reverse Attention Network for Polyp Segmentation [155.93344756264824]
大腸内視鏡画像の高精度なポリープ分割のための並列リバースアテンションネットワーク(PraNet)を提案する。
並列部分復号器(PPD)を用いて,まず高層層に特徴を集約する。
さらに,エリアとバウンダリの関連性を確立するために,リバースアテンション(RA)モジュールを用いて境界キューをマイニングする。
論文 参考訳(メタデータ) (2020-06-13T08:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。