論文の概要: Accurate Real-time Polyp Detection in Videos from Concatenation of
Latent Features Extracted from Consecutive Frames
- arxiv url: http://arxiv.org/abs/2303.05871v1
- Date: Fri, 10 Mar 2023 11:51:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 15:12:00.769117
- Title: Accurate Real-time Polyp Detection in Videos from Concatenation of
Latent Features Extracted from Consecutive Frames
- Title(参考訳): 連続フレームから抽出した潜在特徴の連結によるビデオのリアルタイムポリープ検出
- Authors: Hemin Ali Qadir, Younghak Shin, Jacob Bergsland, Ilangko Balasingham
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は入力画像の小さな変化に対して脆弱である。
CNNベースのモデルは、連続したフレームに現れる同じポリプを見逃す可能性がある。
CNNを用いたエンコーダデコーダモデルの効率的な特徴結合法を提案する。
- 参考スコア(独自算出の注目度): 5.2009074009536524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An efficient deep learning model that can be implemented in real-time for
polyp detection is crucial to reducing polyp miss-rate during screening
procedures. Convolutional neural networks (CNNs) are vulnerable to small
changes in the input image. A CNN-based model may miss the same polyp appearing
in a series of consecutive frames and produce unsubtle detection output due to
changes in camera pose, lighting condition, light reflection, etc. In this
study, we attempt to tackle this problem by integrating temporal information
among neighboring frames. We propose an efficient feature concatenation method
for a CNN-based encoder-decoder model without adding complexity to the model.
The proposed method incorporates extracted feature maps of previous frames to
detect polyps in the current frame. The experimental results demonstrate that
the proposed method of feature concatenation improves the overall performance
of automatic polyp detection in videos. The following results are obtained on a
public video dataset: sensitivity 90.94\%, precision 90.53\%, and specificity
92.46%
- Abstract(参考訳): ポリプ検出のためにリアルタイムに実装可能な効率的なディープラーニングモデルは,スクリーニング手順におけるポリプミス率の低減に不可欠である。
畳み込みニューラルネットワーク(CNN)は入力画像の小さな変化に対して脆弱である。
cnnベースのモデルは、連続するフレームに現れる同じポリプを見逃し、カメラのポーズ、照明条件、光反射などの変化により、副次的な検出結果を生成する。
本研究では,隣接するフレーム間で時間情報を統合することでこの問題に対処する。
本稿では,CNNベースのエンコーダデコーダモデルに対して,複雑さを伴わずに効率的な特徴結合手法を提案する。
提案手法では,前のフレームの特徴マップを抽出して,現在のフレームのポリープを検出する。
実験の結果,提案手法により,ビデオ中のポリプの自動検出性能が向上することがわかった。
以下の結果は、公開ビデオデータセット上で得られる:感度90.94\%、精度90.53\%、特異度92.46%。
関連論文リスト
- SSTFB: Leveraging self-supervised pretext learning and temporal self-attention with feature branching for real-time video polyp segmentation [4.027361638728112]
本稿では,自己教師型学習を補助課題として行うビデオポリープセグメンテーション手法と,表現学習を改善するための空間的時間的自己認識機構を提案する。
実験により, 現状技術(SOTA)法の改良が示された。
本研究は,Diceの類似度係数と交叉結合度の両方において,ネットワークの精度が3%以上,10%近く向上することが確認された。
論文 参考訳(メタデータ) (2024-06-14T17:33:11Z) - ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic
Polyp Detection [88.4359020192429]
既存の手法では、計算コストのかかるコンテキストアグリゲーションが伴うか、ポリープの事前モデリングが欠如しているため、難解なケースでは性能が低下する。
本稿では,2段階のトレーニングとエンドツーエンド推論フレームワークである Enhanced CenterNet with Contrastive Learning (ECC-PolypDet) を提案する。
Box-assisted Contrastive Learning (BCL) は, クラス内差を最小限に抑え, 前庭ポリープと背景のクラス間差を最大化するため, 隠れポリープを捕捉する。
微調整段階におけるIoU誘導サンプル再重み付けの導入
論文 参考訳(メタデータ) (2024-01-10T07:03:41Z) - A Spatial-Temporal Deformable Attention based Framework for Breast
Lesion Detection in Videos [107.96514633713034]
本稿では,STNet という空間的・時間的変形可能なアテンションベースのフレームワークを提案する。
我々のSTNetは、局所的な空間的時間的特徴融合を行うために、空間的時間的変形可能なアテンションモジュールを導入している。
乳腺病変の超音波画像データセットを用いた実験により,STNetは最先端の検出性能を得ることができた。
論文 参考訳(メタデータ) (2023-09-09T07:00:10Z) - YONA: You Only Need One Adjacent Reference-frame for Accurate and Fast
Video Polyp Detection [80.68520401539979]
textbfYONA (textbfYou textbfOnly textbfNeed one textbfAdjacent Reference-frame)は、ビデオポリープ検出のための効率的なエンドツーエンドのトレーニングフレームワークである。
提案したYONAは,従来の最先端の競合他社よりも精度と速度の両面で優れています。
論文 参考訳(メタデータ) (2023-06-06T13:53:15Z) - Lesion-aware Dynamic Kernel for Polyp Segmentation [49.63274623103663]
ポリープセグメンテーションのための障害対応動的ネットワーク(LDNet)を提案する。
従来のU字型エンコーダ・デコーダ構造であり、動的カーネル生成と更新スキームが組み込まれている。
この単純だが効果的なスキームは、我々のモデルに強力なセグメンテーション性能と一般化能力を与える。
論文 参考訳(メタデータ) (2023-01-12T09:53:57Z) - Contrastive Transformer-based Multiple Instance Learning for Weakly
Supervised Polyp Frame Detection [30.51410140271929]
現在の大腸内視鏡ビデオからのポリープ検出法では、正常な(健康な)訓練画像のみを使用する。
我々は,ビデオレベルのラベル付き学習データを用いてフレームレベルのポリプを検出する弱教師付き異常検出タスクとして,ポリプ検出を定式化する。
論文 参考訳(メタデータ) (2022-03-23T01:30:48Z) - Exploration of Various Deep Learning Models for Increased Accuracy in
Automatic Polyp Detection [62.997667081978825]
本稿では,大腸内視鏡画像におけるポリプの検出精度が高いディープラーニングモデルとアルゴリズムについて検討する。
畳み込みニューラルネットワーク(CNN)を用いたディープラーニングの研究
論文 参考訳(メタデータ) (2022-03-04T04:03:41Z) - Colonoscopy polyp detection with massive endoscopic images [4.458670612147842]
我々は、異なるデータセットで検証された平均精度を向上し、既存のエンドツーエンドのポリプ検出モデルを改善した。
我々のモデルは、リアルタイム検出速度を維持しつつ、最先端のポリプ検出性能を実現することができる。
論文 参考訳(メタデータ) (2022-02-17T16:07:59Z) - Real-time automatic polyp detection in colonoscopy using feature
enhancement module and spatiotemporal similarity correlation unit [34.28382404976628]
畳み込みニューラルネットワーク(CNN)に基づく最先端手法
本手法は,2次元CNNを用いたリアルタイム物体検出ネットワークと時間情報を組み合わせる。
本手法は感度,精度,特異性を向上し,臨床大腸内視鏡に応用できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-25T03:40:30Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。