論文の概要: MFSNet: A Multi Focus Segmentation Network for Skin Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2203.14341v1
- Date: Sun, 27 Mar 2022 16:10:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 14:15:44.814424
- Title: MFSNet: A Multi Focus Segmentation Network for Skin Lesion Segmentation
- Title(参考訳): MFSNet:皮膚病変分割のためのマルチフォーカスセグメントネットワーク
- Authors: Hritam Basak, Rohit Kundu, Ram Sarkar
- Abstract要約: 本研究は,皮膚病変の制御のための人工知能(AI)フレームワークを開発する。
MFSNetは3つの公開データセットで評価され、最先端の手法よりも優れている。
- 参考スコア(独自算出の注目度): 28.656853454251426
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Segmentation is essential for medical image analysis to identify and localize
diseases, monitor morphological changes, and extract discriminative features
for further diagnosis. Skin cancer is one of the most common types of cancer
globally, and its early diagnosis is pivotal for the complete elimination of
malignant tumors from the body. This research develops an Artificial
Intelligence (AI) framework for supervised skin lesion segmentation employing
the deep learning approach. The proposed framework, called MFSNet (Multi-Focus
Segmentation Network), uses differently scaled feature maps for computing the
final segmentation mask using raw input RGB images of skin lesions. In doing
so, initially, the images are preprocessed to remove unwanted artifacts and
noises. The MFSNet employs the Res2Net backbone, a recently proposed
convolutional neural network (CNN), for obtaining deep features used in a
Parallel Partial Decoder (PPD) module to get a global map of the segmentation
mask. In different stages of the network, convolution features and multi-scale
maps are used in two boundary attention (BA) modules and two reverse attention
(RA) modules to generate the final segmentation output. MFSNet, when evaluated
on three publicly available datasets: $PH^2$, ISIC 2017, and HAM10000,
outperforms state-of-the-art methods, justifying the reliability of the
framework. The relevant codes for the proposed approach are accessible at
https://github.com/Rohit-Kundu/MFSNet
- Abstract(参考訳): 医学画像解析において, 形態変化を計測し, 識別的特徴を抽出し, さらなる診断を行うためには, セグメンテーションが不可欠である。
皮膚がんは世界でも最も一般的ながんの1つであり、その早期診断は体から悪性腫瘍を完全に取り除く上で重要である。
本研究は,深層学習を用いた皮膚病変の制御のための人工知能(AI)フレームワークを開発する。
MFSNet(Multi-Focus Segmentation Network)と呼ばれるこのフレームワークは、皮膚病変の生のRGB画像を用いて最終セグメンテーションマスクを計算するために、異なるスケールのフィーチャマップを使用する。
まず最初に、画像は不要なアーティファクトやノイズを取り除くために前処理される。
mfsnetは、最近提案された畳み込みニューラルネットワーク(cnn)であるres2net backboneを使用して、並列部分デコーダ(ppd)モジュールで使用される深い特徴を取得し、セグメンテーションマスクのグローバルマップを取得する。
ネットワークの異なる段階では、畳み込み特徴と多スケールマップが2つの境界注意(ba)モジュールと2つの逆注意(ra)モジュールで使われ、最終的なセグメンテーション出力を生成する。
mfsnetは、$ph^2$、isic 2017、ham10000の3つの公開データセットで評価され、最先端のメソッドよりも優れており、フレームワークの信頼性を正当化している。
提案されたアプローチに関連するコードはhttps://github.com/Rohit-Kundu/MFSNetで参照できる。
関連論文リスト
- Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - GRU-Net: Gaussian Attention Aided Dense Skip Connection Based MultiResUNet for Breast Histopathology Image Segmentation [24.85210810502592]
本稿では病理組織像分割のためのMultiResU-Netの修正版を提案する。
複雑な機能を複数のスケールで分析し、セグメント化できるため、バックボーンとして選択される。
乳がんの病理組織像データセットの多様性について検討した。
論文 参考訳(メタデータ) (2024-06-12T19:17:17Z) - BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image
Segmentation [0.0]
本稿では,医療画像の正確な分割のために,身体情報とエッジ情報の融合を強化するBEFUnetという,革新的なU字型ネットワークを提案する。
BEFUnetは、新しいローカル・クロス・アテンション・フィーチャー(LCAF)融合モジュール、新しいダブル・レベル・フュージョン(DLF)モジュール、デュアルブランチ・エンコーダの3つの主要モジュールから構成されている。
LCAFモジュールは、2つのモダリティの間に空間的に近接する特徴に対して、局所的な相互注意を選択的に行うことにより、エッジとボディの特徴を効率よく融合させる。
論文 参考訳(メタデータ) (2024-02-13T21:03:36Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - HistoSeg : Quick attention with multi-loss function for multi-structure
segmentation in digital histology images [0.696194614504832]
医療画像のセグメンテーションは、コンピュータ支援による診断、手術、治療を支援する。
一般化デコーダネットワーク,クイックアテンションモジュール,マルチロス関数を提案する。
医用画像セグメンテーション用データセットであるMoNuSegとGlaSにおいて,提案するネットワークの有効性を評価する。
論文 参考訳(メタデータ) (2022-09-01T21:10:00Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - LEFM-Nets: Learnable Explicit Feature Map Deep Networks for Segmentation
of Histopathological Images of Frozen Sections [0.10152838128195464]
学習可能な明示的特徴写像層によって誘導される低次元部分空間に既存のDNを埋め込むフレームワークを提案する。
ヘマトキシリンおよびエオシン染色凍結部位の画像から,肝臓の大腸腺癌の分画に新しいLEFM-Netを応用した。
論文 参考訳(メタデータ) (2022-04-14T13:27:45Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z) - Boundary-aware Context Neural Network for Medical Image Segmentation [15.585851505721433]
医用画像のセグメンテーションは、さらなる臨床分析と疾患診断のための信頼性の高い基盤を提供することができる。
既存のCNNベースのほとんどの手法は、正確なオブジェクト境界のない不満足なセグメンテーションマスクを生成する。
本稿では,2次元医用画像分割のための境界認識コンテキストニューラルネットワーク(BA-Net)を定式化する。
論文 参考訳(メタデータ) (2020-05-03T02:35:49Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。