論文の概要: Efficient Polyp Segmentation Via Integrity Learning
- arxiv url: http://arxiv.org/abs/2309.08234v1
- Date: Fri, 15 Sep 2023 08:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:22:50.705083
- Title: Efficient Polyp Segmentation Via Integrity Learning
- Title(参考訳): 積分学習による効率的なポリプセグメンテーション
- Authors: Ziqiang Chen, Kang Wang, Yun Liu
- Abstract要約: 本稿では, マクロおよびマイクロレベルでのポリプセグメンテーションにおける完全性の概念を導入し, 完全性欠如を軽減することを目的とした。
我々のIC-PolypSegネットワークは、軽量なバックボーンと3つのキーコンポーネントを使って整合性を改善する。
- 参考スコア(独自算出の注目度): 14.34505893948565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate polyp delineation in colonoscopy is crucial for assisting in
diagnosis, guiding interventions, and treatments. However, current
deep-learning approaches fall short due to integrity deficiency, which often
manifests as missing lesion parts. This paper introduces the integrity concept
in polyp segmentation at both macro and micro levels, aiming to alleviate
integrity deficiency. Specifically, the model should distinguish entire polyps
at the macro level and identify all components within polyps at the micro
level. Our Integrity Capturing Polyp Segmentation (IC-PolypSeg) network
utilizes lightweight backbones and 3 key components for integrity ameliorating:
1) Pixel-wise feature redistribution (PFR) module captures global spatial
correlations across channels in the final semantic-rich encoder features. 2)
Cross-stage pixel-wise feature redistribution (CPFR) module dynamically fuses
high-level semantics and low-level spatial features to capture contextual
information. 3) Coarse-to-fine calibration module combines PFR and CPFR modules
to achieve precise boundary detection. Extensive experiments on 5 public
datasets demonstrate that the proposed IC-PolypSeg outperforms 8
state-of-the-art methods in terms of higher precision and significantly
improved computational efficiency with lower computational consumption.
IC-PolypSeg-EF0 employs 300 times fewer parameters than PraNet while achieving
a real-time processing speed of 235 FPS. Importantly, IC-PolypSeg reduces the
false negative ratio on five datasets, meeting clinical requirements.
- Abstract(参考訳): 大腸内視鏡におけるポリープの正確な描出は,診断,指導,治療の補助に重要である。
しかし、現在のディープラーニングアプローチは整合性の欠如のために不足しており、しばしば欠落した病変部分として現れる。
本稿では,マクロレベルとマイクロレベルでのポリプセグメンテーションにおける整合性概念について紹介する。
特に、モデルはポリプ全体をマクロレベルで区別し、ポリプ内のすべてのコンポーネントをマイクロレベルで識別する必要がある。
我々のIC-PolypSegネットワークは、軽量バックボーンと3つのキーコンポーネントを使用して、整合性を改善する。
1) 画素ワイズ機能再分配 (PFR) モジュールは, 最後のセマンティックリッチエンコーダ機能において, チャネル間のグローバル空間相関をキャプチャする。
2)CPFRモジュールは,高レベルなセマンティクスと低レベルな空間的特徴を動的に融合し,コンテキスト情報をキャプチャする。
3) 粗粒度キャリブレーションモジュールはPFRモジュールとCPFRモジュールを組み合わせて正確な境界検出を行う。
5つの公開データセットに対する大規模な実験により、提案したIC-PolypSegは、より高精度で計算効率が大幅に向上し、より少ない計算消費で8つの最先端手法を上回ります。
IC-PolypSeg-EF0はPraNetの300倍のパラメータを使用し、リアルタイム処理速度は235 FPSである。
重要なことは、IC-PolypSegは5つのデータセットの偽陰性比を減らし、臨床要件を満たすことである。
関連論文リスト
- PSTNet: Enhanced Polyp Segmentation with Multi-scale Alignment and Frequency Domain Integration [17.1088588766663]
Polyp Network with Shunted Transformer (PSTNet) は、画像に存在するRGBと周波数領域の両方を統合する新しいアプローチである。
PSTNetは3つの主要なモジュールから構成される: 周波数特性アテンションモジュール(FCAM)は周波数キューを抽出し、ポリプの特徴を捉え、特徴補助アライメントモジュール(FSAM)は意味情報を調整し、ノイズを低減し、CPMは周波数キューを高レベルなセマンティクスと相乗化して効率的なポリプセグメンテーションを実現する。
論文 参考訳(メタデータ) (2024-09-13T02:52:25Z) - ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic
Polyp Detection [88.4359020192429]
既存の手法では、計算コストのかかるコンテキストアグリゲーションが伴うか、ポリープの事前モデリングが欠如しているため、難解なケースでは性能が低下する。
本稿では,2段階のトレーニングとエンドツーエンド推論フレームワークである Enhanced CenterNet with Contrastive Learning (ECC-PolypDet) を提案する。
Box-assisted Contrastive Learning (BCL) は, クラス内差を最小限に抑え, 前庭ポリープと背景のクラス間差を最大化するため, 隠れポリープを捕捉する。
微調整段階におけるIoU誘導サンプル再重み付けの導入
論文 参考訳(メタデータ) (2024-01-10T07:03:41Z) - M3FPolypSegNet: Segmentation Network with Multi-frequency Feature Fusion
for Polyp Localization in Colonoscopy Images [1.389360509566256]
M3FPolypSegNet (M3FPolypSegNet) は、入力画像を低周波数成分/高周波数成分に分解する。
我々は3つの独立したマルチ周波数エンコーダを用いて、複数の入力画像を高次元の特徴空間にマッピングした。
我々は,4つのデコーダブロックで3つのマルチタスク学習(領域,エッジ,距離)を設計し,その領域の構造的特徴を学習した。
論文 参考訳(メタデータ) (2023-10-09T09:01:53Z) - Edge-aware Feature Aggregation Network for Polyp Segmentation [40.3881565207086]
本研究では,ポリプセグメンテーションのためのエッジ対応特徴集約ネットワーク(EFA-Net)を提案する。
EFA-Netは、ポリプセグメンテーションの性能を高めるために、クロスレベルとマルチスケールの機能を完全に活用することができる。
広く採用されている5つの大腸内視鏡データセットの実験結果から,我々のEFA-Netは,一般化と有効性の観点から,最先端のポリプセグメンテーション法より優れていることが示された。
論文 参考訳(メタデータ) (2023-09-19T11:09:38Z) - Multi-level feature fusion network combining attention mechanisms for
polyp segmentation [11.971323720289249]
本稿では,多レベル特徴融合とアテンション機構を利用したポリプセグメンテーション手法MLFF-Netを提案する。
MLFF-Netは、マルチスケールアテンションモジュール(MAM)、ハイレベル機能拡張モジュール(HFEM)、グローバルアテンションモジュール(GAM)の3つのモジュールから構成される。
論文 参考訳(メタデータ) (2023-09-19T00:18:50Z) - Lesion-aware Dynamic Kernel for Polyp Segmentation [49.63274623103663]
ポリープセグメンテーションのための障害対応動的ネットワーク(LDNet)を提案する。
従来のU字型エンコーダ・デコーダ構造であり、動的カーネル生成と更新スキームが組み込まれている。
この単純だが効果的なスキームは、我々のモデルに強力なセグメンテーション性能と一般化能力を与える。
論文 参考訳(メタデータ) (2023-01-12T09:53:57Z) - Transformer-based Context Condensation for Boosting Feature Pyramids in
Object Detection [77.50110439560152]
現在の物体検出器は、通常マルチレベル特徴融合(MFF)のための特徴ピラミッド(FP)モジュールを持つ。
我々は,既存のFPがより優れたMFF結果を提供するのに役立つ,新しい,効率的なコンテキストモデリング機構を提案する。
特に,包括的文脈を2種類の表現に分解・凝縮して高効率化を図っている。
論文 参考訳(メタデータ) (2022-07-14T01:45:03Z) - Polyp-PVT: Polyp Segmentation with Pyramid Vision Transformers [124.01928050651466]
本稿では,Polyp-PVTと呼ばれる新しいタイプのPolypセグメンテーション手法を提案する。
提案モデルであるPolyp-PVTは,特徴の雑音を効果的に抑制し,その表現能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-08-16T07:09:06Z) - Automatic Polyp Segmentation via Multi-scale Subtraction Network [100.94922587360871]
臨床的には、正確なポリープセグメンテーションは大腸癌の早期発見に重要な情報を提供する。
既存のほとんどの手法はU字型構造に基づいており、デコーダで段階的に異なるレベルの特徴を融合させるために要素ワイド付加または結合を用いる。
大腸内視鏡画像からポリプを抽出するマルチスケールサブトラクションネットワーク(MSNet)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:54:07Z) - PraNet: Parallel Reverse Attention Network for Polyp Segmentation [155.93344756264824]
大腸内視鏡画像の高精度なポリープ分割のための並列リバースアテンションネットワーク(PraNet)を提案する。
並列部分復号器(PPD)を用いて,まず高層層に特徴を集約する。
さらに,エリアとバウンダリの関連性を確立するために,リバースアテンション(RA)モジュールを用いて境界キューをマイニングする。
論文 参考訳(メタデータ) (2020-06-13T08:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。