論文の概要: Multi-level feature fusion network combining attention mechanisms for
polyp segmentation
- arxiv url: http://arxiv.org/abs/2309.10219v1
- Date: Tue, 19 Sep 2023 00:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 16:56:43.260062
- Title: Multi-level feature fusion network combining attention mechanisms for
polyp segmentation
- Title(参考訳): ポリプセグメンテーションのための注意機構を組み合わせた多層機能融合ネットワーク
- Authors: Junzhuo Liu, Qiaosong Chen, Ye Zhang, Zhixiang Wang, Deng Xin, Jin
Wang
- Abstract要約: 本稿では,多レベル特徴融合とアテンション機構を利用したポリプセグメンテーション手法MLFF-Netを提案する。
MLFF-Netは、マルチスケールアテンションモジュール(MAM)、ハイレベル機能拡張モジュール(HFEM)、グローバルアテンションモジュール(GAM)の3つのモジュールから構成される。
- 参考スコア(独自算出の注目度): 11.971323720289249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinically, automated polyp segmentation techniques have the potential to
significantly improve the efficiency and accuracy of medical diagnosis, thereby
reducing the risk of colorectal cancer in patients. Unfortunately, existing
methods suffer from two significant weaknesses that can impact the accuracy of
segmentation. Firstly, features extracted by encoders are not adequately
filtered and utilized. Secondly, semantic conflicts and information redundancy
caused by feature fusion are not attended to. To overcome these limitations, we
propose a novel approach for polyp segmentation, named MLFF-Net, which
leverages multi-level feature fusion and attention mechanisms. Specifically,
MLFF-Net comprises three modules: Multi-scale Attention Module (MAM),
High-level Feature Enhancement Module (HFEM), and Global Attention Module
(GAM). Among these, MAM is used to extract multi-scale information and polyp
details from the shallow output of the encoder. In HFEM, the deep features of
the encoders complement each other by aggregation. Meanwhile, the attention
mechanism redistributes the weight of the aggregated features, weakening the
conflicting redundant parts and highlighting the information useful to the
task. GAM combines features from the encoder and decoder features, as well as
computes global dependencies to prevent receptive field locality. Experimental
results on five public datasets show that the proposed method not only can
segment multiple types of polyps but also has advantages over current
state-of-the-art methods in both accuracy and generalization ability.
- Abstract(参考訳): 臨床的には、自動ポリープセグメンテーション技術は、医療診断の効率と精度を大幅に改善し、患者の大腸癌のリスクを低減する可能性がある。
残念ながら、既存の手法はセグメンテーションの精度に影響を与える2つの重大な弱点に悩まされている。
まず、エンコーダによって抽出された特徴を適切にフィルタリングして利用しない。
第二に、特徴融合による意味的対立や情報冗長性は関与しない。
これらの制約を克服するために,多レベル特徴融合とアテンション機構を利用するMLFF-Netという,ポリプセグメンテーションの新しい手法を提案する。
具体的には,マルチスケールアテンションモジュール(MAM),ハイレベル機能拡張モジュール(HFEM),グローバルアテンションモジュール(GAM)の3つのモジュールで構成される。
これらのうち、MAMはエンコーダの浅い出力からマルチスケール情報やポリプの詳細を抽出するために用いられる。
HFEMでは、エンコーダの深い特徴はアグリゲーションによって相互に補完される。
一方、注目機構は、集約された特徴の重みを再分割し、矛盾する冗長部分を弱め、タスクに有用な情報を強調する。
GAMは、エンコーダとデコーダの機能と、グローバルな依存関係を計算して、受容的なフィールドローカリティを防ぐ。
5つの公開データセットによる実験結果から,提案手法は複数種類のポリープを分割できるだけでなく,精度と一般化能力の両面で現在の最先端手法よりも有利であることがわかった。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - A Mutual Inclusion Mechanism for Precise Boundary Segmentation in Medical Images [2.9137615132901704]
医用画像の正確な境界セグメンテーションのための新しい深層学習手法MIPC-Netを提案する。
位置特徴抽出時のチャネル情報に重点を置くMIPCモジュールを提案する。
また,エンコーダとデコーダの統合性を高めるグローバルな残差接続であるGL-MIPC-Residueを提案する。
論文 参考訳(メタデータ) (2024-04-12T02:14:35Z) - Edge-aware Feature Aggregation Network for Polyp Segmentation [40.3881565207086]
本研究では,ポリプセグメンテーションのためのエッジ対応特徴集約ネットワーク(EFA-Net)を提案する。
EFA-Netは、ポリプセグメンテーションの性能を高めるために、クロスレベルとマルチスケールの機能を完全に活用することができる。
広く採用されている5つの大腸内視鏡データセットの実験結果から,我々のEFA-Netは,一般化と有効性の観点から,最先端のポリプセグメンテーション法より優れていることが示された。
論文 参考訳(メタデータ) (2023-09-19T11:09:38Z) - Efficient Polyp Segmentation Via Integrity Learning [14.34505893948565]
本稿では, マクロおよびマイクロレベルでのポリプセグメンテーションにおける完全性の概念を導入し, 完全性欠如を軽減することを目的とした。
我々のIC-PolypSegネットワークは、軽量なバックボーンと3つのキーコンポーネントを使って整合性を改善する。
論文 参考訳(メタデータ) (2023-09-15T08:11:05Z) - Lesion-aware Dynamic Kernel for Polyp Segmentation [49.63274623103663]
ポリープセグメンテーションのための障害対応動的ネットワーク(LDNet)を提案する。
従来のU字型エンコーダ・デコーダ構造であり、動的カーネル生成と更新スキームが組み込まれている。
この単純だが効果的なスキームは、我々のモデルに強力なセグメンテーション性能と一般化能力を与える。
論文 参考訳(メタデータ) (2023-01-12T09:53:57Z) - Hard Exudate Segmentation Supplemented by Super-Resolution with
Multi-scale Attention Fusion Module [14.021944194533644]
硬外用量(HE)は網膜浮腫の最も特異的なバイオマーカーである。
本稿では,SS-MAFと呼ばれる高分解能部分分割手法を提案する。
我々はIDRiDとE-Ophthaの2つのパブリック病変データセットについて検討した。
論文 参考訳(メタデータ) (2022-11-17T08:25:04Z) - Polyp-PVT: Polyp Segmentation with Pyramid Vision Transformers [124.01928050651466]
本稿では,Polyp-PVTと呼ばれる新しいタイプのPolypセグメンテーション手法を提案する。
提案モデルであるPolyp-PVTは,特徴の雑音を効果的に抑制し,その表現能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-08-16T07:09:06Z) - Automatic Polyp Segmentation via Multi-scale Subtraction Network [100.94922587360871]
臨床的には、正確なポリープセグメンテーションは大腸癌の早期発見に重要な情報を提供する。
既存のほとんどの手法はU字型構造に基づいており、デコーダで段階的に異なるレベルの特徴を融合させるために要素ワイド付加または結合を用いる。
大腸内視鏡画像からポリプを抽出するマルチスケールサブトラクションネットワーク(MSNet)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:54:07Z) - Max-Fusion U-Net for Multi-Modal Pathology Segmentation with Attention
and Dynamic Resampling [13.542898009730804]
関連するアルゴリズムの性能は、マルチモーダル情報の適切な融合によって大きく影響を受ける。
We present the Max-Fusion U-Net that achieve a improve pathology segmentation performance。
マルチシーケンスCMRデータセットを併用したMyoPS(Myocardial pathology segmentation)を用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-09-05T17:24:23Z) - PraNet: Parallel Reverse Attention Network for Polyp Segmentation [155.93344756264824]
大腸内視鏡画像の高精度なポリープ分割のための並列リバースアテンションネットワーク(PraNet)を提案する。
並列部分復号器(PPD)を用いて,まず高層層に特徴を集約する。
さらに,エリアとバウンダリの関連性を確立するために,リバースアテンション(RA)モジュールを用いて境界キューをマイニングする。
論文 参考訳(メタデータ) (2020-06-13T08:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。