論文の概要: SSTFB: Leveraging self-supervised pretext learning and temporal self-attention with feature branching for real-time video polyp segmentation
- arxiv url: http://arxiv.org/abs/2406.10200v1
- Date: Fri, 14 Jun 2024 17:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 12:37:07.696488
- Title: SSTFB: Leveraging self-supervised pretext learning and temporal self-attention with feature branching for real-time video polyp segmentation
- Title(参考訳): SSTFB:リアルタイムビデオポリプセグメンテーションのための特徴分枝による自己教師型プレテキスト学習と時間的自己意識の活用
- Authors: Ziang Xu, Jens Rittscher, Sharib Ali,
- Abstract要約: 本稿では,自己教師型学習を補助課題として行うビデオポリープセグメンテーション手法と,表現学習を改善するための空間的時間的自己認識機構を提案する。
実験により, 現状技術(SOTA)法の改良が示された。
本研究は,Diceの類似度係数と交叉結合度の両方において,ネットワークの精度が3%以上,10%近く向上することが確認された。
- 参考スコア(独自算出の注目度): 4.027361638728112
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Polyps are early cancer indicators, so assessing occurrences of polyps and their removal is critical. They are observed through a colonoscopy screening procedure that generates a stream of video frames. Segmenting polyps in their natural video screening procedure has several challenges, such as the co-existence of imaging artefacts, motion blur, and floating debris. Most existing polyp segmentation algorithms are developed on curated still image datasets that do not represent real-world colonoscopy. Their performance often degrades on video data. We propose a video polyp segmentation method that performs self-supervised learning as an auxiliary task and a spatial-temporal self-attention mechanism for improved representation learning. Our end-to-end configuration and joint optimisation of losses enable the network to learn more discriminative contextual features in videos. Our experimental results demonstrate an improvement with respect to several state-of-the-art (SOTA) methods. Our ablation study also confirms that the choice of the proposed joint end-to-end training improves network accuracy by over 3% and nearly 10% on both the Dice similarity coefficient and intersection-over-union compared to the recently proposed method PNS+ and Polyp-PVT, respectively. Results on previously unseen video data indicate that the proposed method generalises.
- Abstract(参考訳): ポリープは早期がんの指標であり、ポリープの発生と除去を評価することが重要である。
これらは、ビデオフレームのストリームを生成する大腸内視鏡検査によって観察される。
天然ビデオスクリーニングにおけるポリプの分離には、画像アーティファクトの共存、動きのぼかし、浮遊する破片など、いくつかの課題がある。
既存のポリプセグメンテーションアルゴリズムの多くは、実世界の大腸内視鏡を表現しないキュレートされた静止画像データセット上で開発されている。
彼らのパフォーマンスは、しばしばビデオデータで劣化する。
本稿では,自己教師型学習を補助課題として行うビデオポリープセグメンテーション手法と,表現学習を改善するための空間的時間的自己認識機構を提案する。
エンド・ツー・エンドの構成と損失の同時最適化により、ネットワークはより差別的な文脈的特徴をビデオで学べる。
実験により, 現状技術(SOTA)法の改良が示された。
また,本研究は,最近提案した PNS+ と Polyp-PVT と比較して,Dice の類似度係数と交叉対数において,ネットワークの精度が 3% 以上,10% 近く向上することが確認された。
その結果,提案手法が一般化されることが示唆された。
関連論文リスト
- ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - BetterNet: An Efficient CNN Architecture with Residual Learning and Attention for Precision Polyp Segmentation [0.6062751776009752]
本研究では,ポリプセグメンテーションの精度を高めるために,残差学習と注意法を組み合わせた畳み込みニューラルネットワークアーキテクチャであるBetterNetを提案する。
BetterNetは、ポリープの検出と癌の早期認識を強化するために、コンピュータ支援診断技術を統合することを約束している。
論文 参考訳(メタデータ) (2024-05-05T21:08:49Z) - RetSeg: Retention-based Colorectal Polyps Segmentation Network [0.0]
ビジョントランスフォーマー(ViT)は医療画像解析に革命をもたらした。
ViTは、視覚データ処理においてコンテキスト認識を示し、堅牢で正確な予測を行う。
本稿では,マルチヘッド保持ブロックを備えたエンコーダデコーダネットワークRetSegを紹介する。
論文 参考訳(メタデータ) (2023-10-09T06:43:38Z) - YONA: You Only Need One Adjacent Reference-frame for Accurate and Fast
Video Polyp Detection [80.68520401539979]
textbfYONA (textbfYou textbfOnly textbfNeed one textbfAdjacent Reference-frame)は、ビデオポリープ検出のための効率的なエンドツーエンドのトレーニングフレームワークである。
提案したYONAは,従来の最先端の競合他社よりも精度と速度の両面で優れています。
論文 参考訳(メタデータ) (2023-06-06T13:53:15Z) - Accurate Real-time Polyp Detection in Videos from Concatenation of
Latent Features Extracted from Consecutive Frames [5.2009074009536524]
畳み込みニューラルネットワーク(CNN)は入力画像の小さな変化に対して脆弱である。
CNNベースのモデルは、連続したフレームに現れる同じポリプを見逃す可能性がある。
CNNを用いたエンコーダデコーダモデルの効率的な特徴結合法を提案する。
論文 参考訳(メタデータ) (2023-03-10T11:51:22Z) - Lesion-aware Dynamic Kernel for Polyp Segmentation [49.63274623103663]
ポリープセグメンテーションのための障害対応動的ネットワーク(LDNet)を提案する。
従来のU字型エンコーダ・デコーダ構造であり、動的カーネル生成と更新スキームが組み込まれている。
この単純だが効果的なスキームは、我々のモデルに強力なセグメンテーション性能と一般化能力を与える。
論文 参考訳(メタデータ) (2023-01-12T09:53:57Z) - Contrastive Transformer-based Multiple Instance Learning for Weakly
Supervised Polyp Frame Detection [30.51410140271929]
現在の大腸内視鏡ビデオからのポリープ検出法では、正常な(健康な)訓練画像のみを使用する。
我々は,ビデオレベルのラベル付き学習データを用いてフレームレベルのポリプを検出する弱教師付き異常検出タスクとして,ポリプ検出を定式化する。
論文 参考訳(メタデータ) (2022-03-23T01:30:48Z) - Self-Supervised U-Net for Segmenting Flat and Sessile Polyps [63.62764375279861]
大腸ポリープの発達は、がんの最も初期の兆候の1つである。
ポリープの早期検出と切除は生存率を90%に大きく向上させる。
大腸内視鏡画像の処理によりポリープを検出するコンピュータ支援診断システム(CADx)が提案されている。
論文 参考訳(メタデータ) (2021-10-17T09:31:20Z) - Automatic Polyp Segmentation via Multi-scale Subtraction Network [100.94922587360871]
臨床的には、正確なポリープセグメンテーションは大腸癌の早期発見に重要な情報を提供する。
既存のほとんどの手法はU字型構造に基づいており、デコーダで段階的に異なるレベルの特徴を融合させるために要素ワイド付加または結合を用いる。
大腸内視鏡画像からポリプを抽出するマルチスケールサブトラクションネットワーク(MSNet)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:54:07Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。