論文の概要: MSA2-Net: Utilizing Self-Adaptive Convolution Module to Extract Multi-Scale Information in Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2509.01498v2
- Date: Wed, 03 Sep 2025 02:39:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.731648
- Title: MSA2-Net: Utilizing Self-Adaptive Convolution Module to Extract Multi-Scale Information in Medical Image Segmentation
- Title(参考訳): MSA2-Net:医療画像セグメンテーションにおけるマルチスケール情報抽出のための自己適応型畳み込みモジュールの利用
- Authors: Chao Deng, Xiaosen Li, Xiao Qin,
- Abstract要約: 自己適応型畳み込みモジュールは、異なるデータセットのユニークな指紋に依存する畳み込みカーネルのサイズを動的に調整する。
モジュールは、MSA2-Netの2つの重要なコンポーネント、Multi-Scale Convolution BridgeとMulti-Scale Amalgamation Decoderに戦略的に統合されている。
- 参考スコア(独自算出の注目度): 31.007198872745892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The nnUNet segmentation framework adeptly adjusts most hyperparameters in training scripts automatically, but it overlooks the tuning of internal hyperparameters within the segmentation network itself, which constrains the model's ability to generalize. Addressing this limitation, this study presents a novel Self-Adaptive Convolution Module that dynamically adjusts the size of the convolution kernels depending on the unique fingerprints of different datasets. This adjustment enables the MSA2-Net, when equipped with this module, to proficiently capture both global and local features within the feature maps. Self-Adaptive Convolution Module is strategically integrated into two key components of the MSA2-Net: the Multi-Scale Convolution Bridge and the Multi-Scale Amalgamation Decoder. In the MSConvBridge, the module enhances the ability to refine outputs from various stages of the CSWin Transformer during the skip connections, effectively eliminating redundant data that could potentially impair the decoder's performance. Simultaneously, the MSADecoder, utilizing the module, excels in capturing detailed information of organs varying in size during the decoding phase. This capability ensures that the decoder's output closely reproduces the intricate details within the feature maps, thus yielding highly accurate segmentation images. MSA2-Net, bolstered by this advanced architecture, has demonstrated exceptional performance, achieving Dice coefficient scores of 86.49\%, 92.56\%, 93.37\%, and 92.98\% on the Synapse, ACDC, Kvasir, and Skin Lesion Segmentation (ISIC2017) datasets, respectively. This underscores MSA2-Net's robustness and precision in medical image segmentation tasks across various datasets.
- Abstract(参考訳): nnUNetセグメンテーションフレームワークは、トレーニングスクリプトのほとんどのハイパーパラメータを自動的に調整するが、セグメンテーションネットワーク自体の内部ハイパーパラメータのチューニングを見落としている。
この制限に対処するため、この研究では、異なるデータセットのユニークな指紋に依存する畳み込みカーネルのサイズを動的に調整する、新しい自己適応畳み込みモジュールを提案する。
この調整により、MSA2-Netはこのモジュールを備えると、機能マップ内のグローバル機能とローカル機能の両方を適切にキャプチャすることができる。
Self-Adaptive Convolution Moduleは、MSA2-Netの重要な2つのコンポーネント、Multi-Scale Convolution BridgeとMulti-Scale Amalgamation Decoderに戦略的に統合されている。
MSConvBridgeでは、モジュールはスキップ接続中にCSWin Transformerの様々なステージからの出力を洗練する機能を強化し、デコーダのパフォーマンスを損なう可能性のある冗長なデータを効果的に排除する。
同時に、モジュールを利用するMSAデコーダは、デコードフェーズ中にサイズが異なる臓器の詳細な情報を取得するのに長けている。
この機能は、デコーダの出力が特徴マップ内の複雑な詳細を密に再現することを保証するため、高精度なセグメンテーション画像が得られる。
MSA2-Netは、この先進的なアーキテクチャによって強化され、それぞれSynapse, ACDC, Kvasir, Skin Lesion Segmentation (ISIC2017)データセット上で、Dice係数スコア86.49\%, 92.56\%, 93.37\%, 92.98\%を達成した。
これは、様々なデータセットにわたる医療画像分割タスクにおけるMSA2-Netの堅牢性と精度を裏付けるものである。
関連論文リスト
- Re-Densification Meets Cross-Scale Propagation: Real-Time Compression of LiDAR Point Clouds [84.36825469211375]
LiDARポイントクラウドは、様々なアプリケーションに基本的だが、高精度スキャンは、かなりのストレージと送信オーバーヘッドを発生させる。
既存の手法では、非順序の点を階層的なオクツリーやボクセル構造に変換して、密度から疎い予測符号化を行うのが一般的である。
筆者らのフレームワークは2つの軽量モジュールから構成されている。まず、Geometry Re-Densification Moduleがエンコードされたスパース幾何を再認識し、より密なスケールで特徴を抽出し、予測符号化のための特徴を再分離する。
論文 参考訳(メタデータ) (2025-08-28T06:36:10Z) - MSA$^2$Net: Multi-scale Adaptive Attention-guided Network for Medical Image Segmentation [8.404273502720136]
MSA$2$Netは、スキップ接続を適切に設計した新しいディープセグメンテーションフレームワークである。
本稿では,空間的特徴を選択的に強調するために,MASAG(Multi-Scale Adaptive Space Attention Gate)を提案する。
MSA$2$Netは、最先端のSOTA(State-of-the-art)よりも優れています。
論文 参考訳(メタデータ) (2024-07-31T14:41:10Z) - P-MSDiff: Parallel Multi-Scale Diffusion for Remote Sensing Image Segmentation [8.46409964236009]
拡散モデルとマルチスケール機能はセグメンテーションタスクにおいて不可欠な要素である。
並列なマルチスケール分岐を持つ拡散モデルとして知られるセマンティックセグメンテーションの新しいモデルを提案する。
我々のモデルは、UAVidとVayhingen Buildingのデータセットに基づいて、J1測定値に基づいて、優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-05-30T19:40:08Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Unite-Divide-Unite: Joint Boosting Trunk and Structure for High-accuracy
Dichotomous Image Segmentation [48.995367430746086]
Dichotomous Image rendering (DIS) は、自然の風景からカテゴリーに依存しない前景の物体をピンポイントすることを目的としている。
本稿では, トランクと構造同定の有効性を高めるために, 相補的特徴を再構成し, 分割的に配置する, UDUN (Unite-Divide-Unite Network) を提案する。
1024*1024入力を用いて、ResNet-18で65.3fpsのリアルタイム推論を可能にする。
論文 参考訳(メタデータ) (2023-07-26T09:04:35Z) - LENet: Lightweight And Efficient LiDAR Semantic Segmentation Using
Multi-Scale Convolution Attention [0.0]
本稿では,LDARに基づくセマンティックセマンティックセマンティクスのためのエンコーダデコーダ構造を持つLENetと呼ばれるプロジェクションベースのセマンティクスセマンティクスセマンティクスネットワークを提案する。
エンコーダは、特徴を捉えるために、様々な受信フィールドサイズを持つ新しいマルチスケール・コンボリューション・アテンション(MSCA)モジュールで構成されている。
提案手法は, 最先端のセマンティックセグメンテーション法と比較して, 軽量で, 効率的で, 堅牢であることを示す。
論文 参考訳(メタデータ) (2023-01-11T02:51:38Z) - Lightweight Salient Object Detection in Optical Remote-Sensing Images
via Semantic Matching and Edge Alignment [61.45639694373033]
セマンティックマッチングとエッジアライメントに基づく光リモートセンシング画像(ORSI-SOD)のための新しい軽量ネットワークSeaNetを提案する。
具体的には、機能抽出のための軽量MobileNet-V2、高レベルの機能のための動的セマンティックマッチングモジュール(DSMM)、推論のためのポータブルデコーダが含まれる。
論文 参考訳(メタデータ) (2023-01-07T04:33:51Z) - TAM: Temporal Adaptive Module for Video Recognition [60.83208364110288]
時間適応モジュール(bf TAM)は、自身の特徴マップに基づいてビデオ固有の時間カーネルを生成する。
Kinetics-400およびSomethingデータセットの実験は、我々のTAMが他の時間的モデリング手法より一貫して優れていることを示した。
論文 参考訳(メタデータ) (2020-05-14T08:22:45Z) - Encoder-Decoder Based Convolutional Neural Networks with
Multi-Scale-Aware Modules for Crowd Counting [6.893512627479196]
正確かつ効率的な群集カウントのための2つの修正ニューラルネットワークを提案する。
最初のモデルはM-SFANetと名付けられ、アラス空間ピラミッドプール(ASPP)とコンテキスト認識モジュール(CAN)が付属している。
第2のモデルはM-SegNetと呼ばれ、SFANetの双線形アップサンプリングをSegNetで使用される最大アンプールに置き換えることで生成される。
論文 参考訳(メタデータ) (2020-03-12T03:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。