論文の概要: ScaleFusionNet: Transformer-Guided Multi-Scale Feature Fusion for Skin Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2503.03327v1
- Date: Wed, 05 Mar 2025 10:00:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:51:18.415235
- Title: ScaleFusionNet: Transformer-Guided Multi-Scale Feature Fusion for Skin Lesion Segmentation
- Title(参考訳): ScaleFusionNet: Transformer-Guided Multi-Scale Feature Fusion for Skin Lesion Segmentation
- Authors: Saqib Qamar, Syed Furqan Qadri, Roobaea Alroobaea, Majed Alsafyani, Abdullah M. Baqasah,
- Abstract要約: メラノーマは皮膚細胞病変に由来する悪性腫瘍である。
本稿では,CATM(Cross-Attention Transformer Module)とAdaptiveFusionBlockを統合したセグメンテーションモデルであるScaleFusionNetを提案する。
このモデルは、ローカル機能とグローバル機能の両方を効果的にキャプチャするハイブリッドアーキテクチャエンコーダを採用している。
- 参考スコア(独自算出の注目度): 1.1367873351707132
- License:
- Abstract: Melanoma is a malignant tumor originating from skin cell lesions. Accurate and efficient segmentation of skin lesions is essential for quantitative medical analysis but remains challenging. To address this, we propose ScaleFusionNet, a segmentation model that integrates Cross-Attention Transformer Module (CATM) and AdaptiveFusionBlock to enhance feature extraction and fusion. The model employs a hybrid architecture encoder that effectively captures both local and global features. We introduce CATM, which utilizes Swin Transformer Blocks and Cross Attention Fusion (CAF) to adaptively refine encoder-decoder feature fusion, reducing semantic gaps and improving segmentation accuracy. Additionally, the AdaptiveFusionBlock is improved by integrating adaptive multi-scale fusion, where Swin Transformer-based attention complements deformable convolution-based multi-scale feature extraction. This enhancement refines lesion boundaries and preserves fine-grained details. ScaleFusionNet achieves Dice scores of 92.94% and 91.65% on ISIC-2016 and ISIC-2018 datasets, respectively, demonstrating its effectiveness in skin lesion analysis. Our code implementation is publicly available at GitHub.
- Abstract(参考訳): メラノーマは皮膚細胞病変に由来する悪性腫瘍である。
定量的な医学的分析には皮膚病変の正確な分画が不可欠であるが,依然として困難である。
そこで本研究では,CATM(Cross-Attention Transformer Module)とAdaptiveFusionBlockを統合したセグメンテーションモデルであるScaleFusionNetを提案する。
このモデルは、ローカル機能とグローバル機能の両方を効果的にキャプチャするハイブリッドアーキテクチャエンコーダを採用している。
我々は,Swin Transformer Blocks と Cross Attention Fusion (CAF) を用いて,エンコーダとデコーダの機能融合を適応的に洗練し,セマンティックギャップを低減し,セグメンテーション精度を向上させる CATM を紹介する。
さらに、AdaptiveFusionBlockは適応型マルチスケールフュージョンを統合することで改善され、Swin Transformerベースのアテンションは変形可能な畳み込みベースのマルチスケール特徴抽出を補完する。
この強化は病変の境界を洗練させ、きめ細かい詳細を保存する。
ScaleFusionNetは、ISIC-2016データセットとISIC-2018データセットでそれぞれ92.94%と91.65%のDiceスコアを達成し、皮膚病変解析の有効性を示した。
コード実装はGitHubで公開されています。
関連論文リスト
- GLoG-CSUnet: Enhancing Vision Transformers with Adaptable Radiomic Features for Medical Image Segmentation [2.294915015129229]
ビジョントランスフォーマー(ViT)は医療画像セマンティックセグメンテーション(MISS)において有望であることを示した
Gabor and Laplacian of Gaussian Convolutional Swin Network (GLoG-CSUnet) を紹介する。
GLoG-CSUnetは、学習可能な放射能機能を組み込んだトランスフォーマーモデルを強化する新しいアーキテクチャである。
論文 参考訳(メタデータ) (2025-01-06T06:07:40Z) - FIAS: Feature Imbalance-Aware Medical Image Segmentation with Dynamic Fusion and Mixing Attention [11.385231493066312]
畳み込みニューラルネットワーク(CNN)とトランスフォーマーを組み合わせたハイブリッドアーキテクチャは、医療画像セグメンテーションにおける競争力を示している。
本稿では、デュアルパスエンコーダとMixAtt(MixAtt)デコーダを組み込んだフェール・インバランス・アウェア(FIAS)ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-16T20:30:44Z) - AFFSegNet: Adaptive Feature Fusion Segmentation Network for Microtumors and Multi-Organ Segmentation [31.97835089989928]
医用画像のセグメンテーションは、コンピュータビジョンにおいて重要な課題であり、診断、治療計画、疾患モニタリングにおける臨床医を支援する。
本稿では,局所的特徴とグローバルな特徴を効果的に統合し,正確な医用画像分割を実現するトランスフォーマアーキテクチャである適応意味ネットワーク(ASSNet)を提案する。
多臓器、肝腫瘍、膀胱腫瘍の分節を含む様々な医療画像の分節タスクに関するテストは、ATSNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2024-09-12T06:25:44Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Inter-Scale Dependency Modeling for Skin Lesion Segmentation with
Transformer-based Networks [0.0]
メラノーマは皮膚細胞の異常増殖によって引き起こされる皮膚がんの危険形態である。
U-Netアーキテクチャを含むFCNアプローチは、皮膚病変を自動的に分割して診断を支援する。
対称的U-Netモデルは優れた結果を示しているが、畳み込み演算を用いることで、長距離依存を捕捉する能力は制限されている。
論文 参考訳(メタデータ) (2023-10-20T16:20:25Z) - Skin Lesion Segmentation Improved by Transformer-based Networks with
Inter-scale Dependency Modeling [0.0]
メラノーマは異常な皮膚細胞増殖に起因する皮膚癌の一種である。
対称的U-Netモデルの畳み込み操作への依存は、長距離依存をキャプチャする能力を妨げている。
この制限を克服するために、TransformerベースのいくつかのU-Netトポロジが最近作成されている。
論文 参考訳(メタデータ) (2023-10-20T15:53:51Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。