論文の概要: Hard Exudate Segmentation Supplemented by Super-Resolution with
Multi-scale Attention Fusion Module
- arxiv url: http://arxiv.org/abs/2211.09404v1
- Date: Thu, 17 Nov 2022 08:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 17:14:17.477620
- Title: Hard Exudate Segmentation Supplemented by Super-Resolution with
Multi-scale Attention Fusion Module
- Title(参考訳): マルチスケール・アテンション・フュージョンモジュールを用いた超解像処理による硬質セグメンテーション
- Authors: Jiayi Zhang, Xiaoshan Chen, Zhongxi Qiu, Mingming Yang, Yan Hu, Jiang
Liu
- Abstract要約: 硬外用量(HE)は網膜浮腫の最も特異的なバイオマーカーである。
本稿では,SS-MAFと呼ばれる高分解能部分分割手法を提案する。
我々はIDRiDとE-Ophthaの2つのパブリック病変データセットについて検討した。
- 参考スコア(独自算出の注目度): 14.021944194533644
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hard exudates (HE) is the most specific biomarker for retina edema. Precise
HE segmentation is vital for disease diagnosis and treatment, but automatic
segmentation is challenged by its large variation of characteristics including
size, shape and position, which makes it difficult to detect tiny lesions and
lesion boundaries. Considering the complementary features between segmentation
and super-resolution tasks, this paper proposes a novel hard exudates
segmentation method named SS-MAF with an auxiliary super-resolution task, which
brings in helpful detailed features for tiny lesion and boundaries detection.
Specifically, we propose a fusion module named Multi-scale Attention Fusion
(MAF) module for our dual-stream framework to effectively integrate features of
the two tasks. MAF first adopts split spatial convolutional (SSC) layer for
multi-scale features extraction and then utilize attention mechanism for
features fusion of the two tasks. Considering pixel dependency, we introduce
region mutual information (RMI) loss to optimize MAF module for tiny lesions
and boundary detection. We evaluate our method on two public lesion datasets,
IDRiD and E-Ophtha. Our method shows competitive performance with
low-resolution inputs, both quantitatively and qualitatively. On E-Ophtha
dataset, the method can achieve $\geq3\%$ higher dice and recall compared with
the state-of-the-art methods.
- Abstract(参考訳): hard exudates (he) は網膜浮腫の最も特異的なバイオマーカーである。
正確なHEセグメンテーションは、疾患の診断と治療には不可欠であるが、その大きさ、形状、位置などの大きな特徴により自動セグメンテーションは困難であり、小さな病変や病変の境界を検出することは困難である。
本稿では,分割処理と超解像処理の相補的特徴を考慮し,SS-MAFと呼ばれる超解像処理を補助的に行う手法を提案する。
具体的には,マルチスケールアテンション・フュージョン(MAF)モジュールと呼ばれる融合モジュールを提案し,その2つのタスクの特徴を効果的に統合する。
MAFはまず、分割空間畳み込み(SSC)層をマルチスケールの特徴抽出に適用し、2つのタスクの特徴融合に注意機構を利用する。
画素依存性を考慮し、小さな病変や境界検出のためにMAFモジュールを最適化するために、領域相互情報(RMI)損失を導入する。
我々はIDRiDとE-Ophthaの2つのパブリック病変データセットについて検討した。
本手法は, 定量的および定性的に低解像度入力と競合性能を示す。
e-ophthaデータセットでは、このメソッドは最先端のメソッドと比較して$\geq3\%$ high diceを達成し、リコールすることができる。
関連論文リスト
- Multi-scale Information Sharing and Selection Network with Boundary Attention for Polyp Segmentation [10.152504573356413]
本稿では,多目的セグメンテーションタスクのためのマルチスケール情報共有選択ネットワーク(MISNet)を提案する。
5つのpolypセグメンテーションデータセットの実験により、MISNetはセグメンテーション結果の精度と明確性を改善した。
論文 参考訳(メタデータ) (2024-05-18T02:48:39Z) - A Mutual Inclusion Mechanism for Precise Boundary Segmentation in Medical Images [2.9137615132901704]
医用画像の正確な境界セグメンテーションのための新しい深層学習手法MIPC-Netを提案する。
位置特徴抽出時のチャネル情報に重点を置くMIPCモジュールを提案する。
また,エンコーダとデコーダの統合性を高めるグローバルな残差接続であるGL-MIPC-Residueを提案する。
論文 参考訳(メタデータ) (2024-04-12T02:14:35Z) - Semi- and Weakly-Supervised Learning for Mammogram Mass Segmentation with Limited Annotations [49.33388736227072]
本稿では,マスセグメンテーションのための半弱教師付き学習フレームワークを提案する。
良好な性能を得るために, 限られた強ラベルのサンプルと十分な弱ラベルのサンプルを用いる。
CBIS-DDSMおよびINbreastデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-14T12:05:25Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Multi-level feature fusion network combining attention mechanisms for
polyp segmentation [11.971323720289249]
本稿では,多レベル特徴融合とアテンション機構を利用したポリプセグメンテーション手法MLFF-Netを提案する。
MLFF-Netは、マルチスケールアテンションモジュール(MAM)、ハイレベル機能拡張モジュール(HFEM)、グローバルアテンションモジュール(GAM)の3つのモジュールから構成される。
論文 参考訳(メタデータ) (2023-09-19T00:18:50Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Multimodal Multi-Head Convolutional Attention with Various Kernel Sizes
for Medical Image Super-Resolution [56.622832383316215]
超解像CTおよびMRIスキャンのための新しいマルチヘッド畳み込みアテンションモジュールを提案する。
我々の注目モジュールは、畳み込み操作を用いて、複数の入力テンソルに対して共同的な空間チャネルアテンションを行う。
それぞれの頭部は空間的注意に対する特定の減少率に応じた受容野の大きさの異なる複数の注意ヘッドを導入している。
論文 参考訳(メタデータ) (2022-04-08T07:56:55Z) - Max-Fusion U-Net for Multi-Modal Pathology Segmentation with Attention
and Dynamic Resampling [13.542898009730804]
関連するアルゴリズムの性能は、マルチモーダル情報の適切な融合によって大きく影響を受ける。
We present the Max-Fusion U-Net that achieve a improve pathology segmentation performance。
マルチシーケンスCMRデータセットを併用したMyoPS(Myocardial pathology segmentation)を用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-09-05T17:24:23Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。