論文の概要: Hard Exudate Segmentation Supplemented by Super-Resolution with
Multi-scale Attention Fusion Module
- arxiv url: http://arxiv.org/abs/2211.09404v1
- Date: Thu, 17 Nov 2022 08:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 17:14:17.477620
- Title: Hard Exudate Segmentation Supplemented by Super-Resolution with
Multi-scale Attention Fusion Module
- Title(参考訳): マルチスケール・アテンション・フュージョンモジュールを用いた超解像処理による硬質セグメンテーション
- Authors: Jiayi Zhang, Xiaoshan Chen, Zhongxi Qiu, Mingming Yang, Yan Hu, Jiang
Liu
- Abstract要約: 硬外用量(HE)は網膜浮腫の最も特異的なバイオマーカーである。
本稿では,SS-MAFと呼ばれる高分解能部分分割手法を提案する。
我々はIDRiDとE-Ophthaの2つのパブリック病変データセットについて検討した。
- 参考スコア(独自算出の注目度): 14.021944194533644
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hard exudates (HE) is the most specific biomarker for retina edema. Precise
HE segmentation is vital for disease diagnosis and treatment, but automatic
segmentation is challenged by its large variation of characteristics including
size, shape and position, which makes it difficult to detect tiny lesions and
lesion boundaries. Considering the complementary features between segmentation
and super-resolution tasks, this paper proposes a novel hard exudates
segmentation method named SS-MAF with an auxiliary super-resolution task, which
brings in helpful detailed features for tiny lesion and boundaries detection.
Specifically, we propose a fusion module named Multi-scale Attention Fusion
(MAF) module for our dual-stream framework to effectively integrate features of
the two tasks. MAF first adopts split spatial convolutional (SSC) layer for
multi-scale features extraction and then utilize attention mechanism for
features fusion of the two tasks. Considering pixel dependency, we introduce
region mutual information (RMI) loss to optimize MAF module for tiny lesions
and boundary detection. We evaluate our method on two public lesion datasets,
IDRiD and E-Ophtha. Our method shows competitive performance with
low-resolution inputs, both quantitatively and qualitatively. On E-Ophtha
dataset, the method can achieve $\geq3\%$ higher dice and recall compared with
the state-of-the-art methods.
- Abstract(参考訳): hard exudates (he) は網膜浮腫の最も特異的なバイオマーカーである。
正確なHEセグメンテーションは、疾患の診断と治療には不可欠であるが、その大きさ、形状、位置などの大きな特徴により自動セグメンテーションは困難であり、小さな病変や病変の境界を検出することは困難である。
本稿では,分割処理と超解像処理の相補的特徴を考慮し,SS-MAFと呼ばれる超解像処理を補助的に行う手法を提案する。
具体的には,マルチスケールアテンション・フュージョン(MAF)モジュールと呼ばれる融合モジュールを提案し,その2つのタスクの特徴を効果的に統合する。
MAFはまず、分割空間畳み込み(SSC)層をマルチスケールの特徴抽出に適用し、2つのタスクの特徴融合に注意機構を利用する。
画素依存性を考慮し、小さな病変や境界検出のためにMAFモジュールを最適化するために、領域相互情報(RMI)損失を導入する。
我々はIDRiDとE-Ophthaの2つのパブリック病変データセットについて検討した。
本手法は, 定量的および定性的に低解像度入力と競合性能を示す。
e-ophthaデータセットでは、このメソッドは最先端のメソッドと比較して$\geq3\%$ high diceを達成し、リコールすることができる。
関連論文リスト
- Semi- and Weakly-Supervised Learning for Mammogram Mass Segmentation with Limited Annotations [49.33388736227072]
本稿では,マスセグメンテーションのための半弱教師付き学習フレームワークを提案する。
良好な性能を得るために, 限られた強ラベルのサンプルと十分な弱ラベルのサンプルを用いる。
CBIS-DDSMおよびINbreastデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-14T12:05:25Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for
Semi-supervised Polyp Segmentation [52.06525450636897]
大腸癌の早期診断と治療において, 自動ポリープセグメンテーションが重要な役割を担っている。
既存の手法は、完全に教師されたトレーニングに大きく依存しており、大量のラベル付きデータと時間を要するピクセル単位のアノテーションを必要とする。
大腸内視鏡画像からの半教師付きポリープ(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - MEDPSeg: End-to-end segmentation of pulmonary structures and lesions in
computed tomography [38.69538648742266]
本研究では, 肺, 気道, 肺動脈, 肺病変の分断法の開発を行った。
我々は,複数のターゲット,特にグラウンドガラスの不透明度と凝縮のセグメンテーションにおいて,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-12-04T21:46:39Z) - Multi-level feature fusion network combining attention mechanisms for
polyp segmentation [11.971323720289249]
本稿では,多レベル特徴融合とアテンション機構を利用したポリプセグメンテーション手法MLFF-Netを提案する。
MLFF-Netは、マルチスケールアテンションモジュール(MAM)、ハイレベル機能拡張モジュール(HFEM)、グローバルアテンションモジュール(GAM)の3つのモジュールから構成される。
論文 参考訳(メタデータ) (2023-09-19T00:18:50Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - Mimicking a Pathologist: Dual Attention Model for Scoring of Gigapixel
Histology Images [12.53157021039492]
病理医による視覚検査を模倣する2つの主成分からなる新しい二重注意アプローチを提案する。
乳がんのHER2予測と,大腸癌に対する2つのMMRバイオマーカーのIntact/Loss像の予測の2つの異なるIHC症例に提案したモデルを応用した。
論文 参考訳(メタデータ) (2023-02-19T22:26:25Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Multimodal Multi-Head Convolutional Attention with Various Kernel Sizes
for Medical Image Super-Resolution [56.622832383316215]
超解像CTおよびMRIスキャンのための新しいマルチヘッド畳み込みアテンションモジュールを提案する。
我々の注目モジュールは、畳み込み操作を用いて、複数の入力テンソルに対して共同的な空間チャネルアテンションを行う。
それぞれの頭部は空間的注意に対する特定の減少率に応じた受容野の大きさの異なる複数の注意ヘッドを導入している。
論文 参考訳(メタデータ) (2022-04-08T07:56:55Z) - Max-Fusion U-Net for Multi-Modal Pathology Segmentation with Attention
and Dynamic Resampling [13.542898009730804]
関連するアルゴリズムの性能は、マルチモーダル情報の適切な融合によって大きく影響を受ける。
We present the Max-Fusion U-Net that achieve a improve pathology segmentation performance。
マルチシーケンスCMRデータセットを併用したMyoPS(Myocardial pathology segmentation)を用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-09-05T17:24:23Z) - Learning Directional Feature Maps for Cardiac MRI Segmentation [13.389141642517762]
本稿では,クラス間の差分とクラス内の類似度を同時に強化する指向性特徴写像を利用する新しい手法を提案する。
具体的には,最寄りの心臓組織の境界から各ピクセルに向けられた方向のフィールドを学習する。
学習方向のフィールドに基づいて、元のセグメンテーション機能を改善するために、特徴修正と融合(FRF)モジュールを提案する。
論文 参考訳(メタデータ) (2020-07-22T11:31:04Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。