論文の概要: S2M-Net: Spectral-Spatial Mixing for Medical Image Segmentation with Morphology-Aware Adaptive Loss
- arxiv url: http://arxiv.org/abs/2601.01285v1
- Date: Sat, 03 Jan 2026 21:03:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.164967
- Title: S2M-Net: Spectral-Spatial Mixing for Medical Image Segmentation with Morphology-Aware Adaptive Loss
- Title(参考訳): S2M-Net:形態認識型適応損失を用いた医用画像分割のためのスペクトル-空間混合
- Authors: Md. Sanaullah Chowdhury Lameya Sabrin,
- Abstract要約: 医療画像のセグメンテーションには、境界クリティカルな臨床応用のための局所的精度、解剖学的コヒーレンスのためのグローバルコンテキスト、および既存のアーキテクチャが解決できない限られたデータやハードウェア上のデプロイのための計算効率のバランスが必要である。
我々は,S2M-Netを提案する。S2M-Netは,S2M-Net,S2M-Net,S2M-Net,S2M-Net,S2M-Net,S2M-Net,S2M-Net,S2M-Net,S2M-Net,Morphology-Aware Adaptive Loss(MAS)の2つの相乗的イノベーションを通じて,グローバルなコンテキストを実現するためのアーキテクチャである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation requires balancing local precision for boundary-critical clinical applications, global context for anatomical coherence, and computational efficiency for deployment on limited data and hardware a trilemma that existing architectures fail to resolve. Although convolutional networks provide local precision at $\mathcal{O}(n)$ cost but limited receptive fields, vision transformers achieve global context through $\mathcal{O}(n^2)$ self-attention at prohibitive computational expense, causing overfitting on small clinical datasets. We propose S2M-Net, a 4.7M-parameter architecture that achieves $\mathcal{O}(HW \log HW)$ global context through two synergistic innovations: (i) Spectral-Selective Token Mixer (SSTM), which exploits the spectral concentration of medical images via truncated 2D FFT with learnable frequency filtering and content-gated spatial projection, avoiding quadratic attention cost while maintaining global receptive fields; and (ii) Morphology-Aware Adaptive Segmentation Loss (MASL), which automatically analyzes structure characteristics (compactness, tubularity, irregularity, scale) to modulate five complementary loss components through constrained learnable weights, eliminating manual per-dataset tuning. Comprehensive evaluation in 16 medical imaging datasets that span 8 modalities demonstrates state-of-the-art performance: 96.12\% Dice on polyp segmentation, 83.77\% on surgical instruments (+17.85\% over the prior art) and 80.90\% on brain tumors, with consistent 3-18\% improvements over specialized baselines while using 3.5--6$\times$ fewer parameters than transformer-based methods.
- Abstract(参考訳): 医療画像のセグメンテーションには、境界クリティカルな臨床応用のための局所的精度、解剖学的コヒーレンスのためのグローバルコンテキスト、および既存のアーキテクチャが解決できない限られたデータやハードウェア上のデプロイのための計算効率のバランスが必要である。
畳み込みネットワークは、$\mathcal{O}(n)$コストで局所精度を提供するが、視覚変換器は$\mathcal{O}(n^2)$の計算費用でグローバルなコンテキストを達成し、小さな臨床データセットに過剰な適合をもたらす。
S2M-Netは,2つの相乗的革新を通じて,$\mathcal{O}(HW \log HW)$グローバルコンテキストを実現する4.7Mパラメータアーキテクチャである。
2D FFTによる医用画像のスペクトル濃度を学習可能な周波数フィルタリングとコンテントゲート空間投影で利用し、グローバルな受容野を維持しながら、二次的注意コストを回避したスペクトル選択型トークンミキサー(SSTM)
(II) 構造特性(適合性, 管状性, 不規則性, スケール)を自動的に解析し, 制約付き学習重みによる5つの相補的損失成分を変調し, 手動のデータセット単位のチューニングを除去する形態素認識適応型セグメンテーション損失(MASL)。
96.12\% ポリープセグメンテーション、83.77\% の手術器具(+17.85\%)、80.90\% の脳腫瘍、3.5--6$\times よりも少ないパラメータを使用する。
関連論文リスト
- When CNNs Outperform Transformers and Mambas: Revisiting Deep Architectures for Dental Caries Segmentation [9.108764893521526]
コンボリューションニューラルネットワーク,ビジョントランスフォーマー,および状態空間のマンバアーキテクチャを,DC1000データセットによるパノラマX線写真による自動歯列セグメンテーションのために,初めて包括的なベンチマークを行った。
その結果、CNNベースのDoubleU-Netは、複雑な注意に基づくアーキテクチャの傾向とは対照的に、最も高いダイス係数は0.7345、mIoUは0.5978、精度は0.8145となり、全ての変圧器やマンバの変圧器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-11-18T19:16:21Z) - Automated MRI Tumor Segmentation using hybrid U-Net with Transformer and Efficient Attention [0.7456526005219317]
癌は異常な増殖であり、局所的に浸潤し、遠くの臓器に転移する可能性がある。
最近のAIベースのセグメンテーションモデルは一般的に、大規模な公開データセットでトレーニングされている。
本研究は,AI腫瘍セグメンテーションモデルを病院ソフトウェアに直接組み込んで,効率的な腫瘍治療計画と実施を行う。
論文 参考訳(メタデータ) (2025-06-18T15:36:37Z) - LATUP-Net: A Lightweight 3D Attention U-Net with Parallel Convolutions for Brain Tumor Segmentation [7.1789008189318455]
LATUP-Netは、並列畳み込みを備えた軽量な3DアテンションU-Netである。
高いセグメンテーション性能を維持しつつ、計算要求を大幅に削減するように設計されている。
BraTS 2020データセットの平均Diceスコアは88.41%、83.82%、73.67%であり、BraTS 2021データセットでは、それぞれ90.29%、89.54%、83.92%である。
論文 参考訳(メタデータ) (2024-04-09T00:05:45Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Fully Automated 3D Segmentation of MR-Imaged Calf Muscle Compartments:
Neighborhood Relationship Enhanced Fully Convolutional Network [6.597152960878372]
FilterNetは新しい完全畳み込みネットワーク(FCN)であり、個々のふくらはぎの筋肉の区画分割にエッジ対応の制約を埋め込む。
FCNは健常者10名, 疾患者30名のT1強調MRI像を4倍のクロスバリデーションで評価した。
論文 参考訳(メタデータ) (2020-06-21T22:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。