論文の概要: HyM-UNet: Synergizing Local Texture and Global Context via Hybrid CNN-Mamba Architecture for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2511.17988v1
- Date: Sat, 22 Nov 2025 09:02:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.572473
- Title: HyM-UNet: Synergizing Local Texture and Global Context via Hybrid CNN-Mamba Architecture for Medical Image Segmentation
- Title(参考訳): HyM-UNet:医療画像分割のためのハイブリッドCNN-Mambaアーキテクチャによる局所テクスチャとグローバルコンテキストの同期
- Authors: Haodong Chen, Xianfei Han, Qwen,
- Abstract要約: HyM-UNet は,CNN の局所的特徴抽出能力を,Mamba の効率的なグローバルモデリング能力と相乗化するために設計された。
エンコーダとデコーダのセマンティックギャップを埋めるため,Mamba-Guided Fusion Skip Connectionを提案する。
その結果,HyM-UNetはDice係数とIoUで既存の最先端手法を著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 3.976000861085382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate organ and lesion segmentation is a critical prerequisite for computer-aided diagnosis. Convolutional Neural Networks (CNNs), constrained by their local receptive fields, often struggle to capture complex global anatomical structures. To tackle this challenge, this paper proposes a novel hybrid architecture, HyM-UNet, designed to synergize the local feature extraction capabilities of CNNs with the efficient global modeling capabilities of Mamba. Specifically, we design a Hierarchical Encoder that utilizes convolutional modules in the shallow stages to preserve high-frequency texture details, while introducing Visual Mamba modules in the deep stages to capture long-range semantic dependencies with linear complexity. To bridge the semantic gap between the encoder and the decoder, we propose a Mamba-Guided Fusion Skip Connection (MGF-Skip). This module leverages deep semantic features as gating signals to dynamically suppress background noise within shallow features, thereby enhancing the perception of ambiguous boundaries. We conduct extensive experiments on public benchmark dataset ISIC 2018. The results demonstrate that HyM-UNet significantly outperforms existing state-of-the-art methods in terms of Dice coefficient and IoU, while maintaining lower parameter counts and inference latency. This validates the effectiveness and robustness of the proposed method in handling medical segmentation tasks characterized by complex shapes and scale variations.
- Abstract(参考訳): 正確な臓器と病変のセグメンテーションは、コンピュータ支援診断にとって重要な前提条件である。
畳み込みニューラルネットワーク(CNN)は、その局所受容領域によって制約され、複雑なグローバルな解剖学的構造を捉えるのにしばしば苦労する。
そこで本研究では,CNNの局所的特徴抽出機能と,Mambaの効率的なグローバルなモデリング機能を組み合わせたハイブリッドアーキテクチャHyM-UNetを提案する。
具体的には、浅い段の畳み込みモジュールを利用して高頻度テクスチャの詳細を保存できる階層エンコーダを設計し、深い段のVisual Mambaモジュールを導入して、長い範囲のセマンティック依存関係を線形複雑にキャプチャする。
エンコーダとデコーダのセマンティックギャップを埋めるために,Mamba-Guided Fusion Skip Connection (MGF-Skip)を提案する。
このモジュールは、深い意味的特徴をゲーティング信号として利用し、浅い特徴の背景雑音を動的に抑制し、曖昧な境界の知覚を高める。
公開ベンチマークデータセットISIC 2018について広範な実験を行った。
その結果、HyM-UNetはDice係数とIoUの点で既存の最先端手法を著しく上回り、パラメータ数や推論遅延は低く抑えられることがわかった。
これにより、複雑な形状とスケールのバリエーションを特徴とする医療セグメント化タスクの処理における提案手法の有効性とロバスト性を検証する。
関連論文リスト
- MambaCAFU: Hybrid Multi-Scale and Multi-Attention Model with Mamba-Based Fusion for Medical Image Segmentation [11.967890140626716]
本稿では,CNN,トランスフォーマー,およびMambaベースのアテンションフュージョン機構を統合した3分岐エンコーダを特徴とするハイブリッドセグメンテーションアーキテクチャを提案する。
マルチスケールアテンションベースのCNNデコーダは、コンテキスト整合性を維持しつつ、きめ細かいセグメンテーションマップを再構成する。
本手法は,計算量に匹敵する複雑性を維持しつつ,精度と一般化において最先端の手法より優れる。
論文 参考訳(メタデータ) (2025-10-04T11:25:10Z) - GCRPNet: Graph-Enhanced Contextual and Regional Perception Network for Salient Object Detection in Optical Remote Sensing Images [68.33481681452675]
本稿では,GCRPNet(Graph-enhanced contextual and Regional Recognition Network)を提案する。
これはMambaアーキテクチャの上に構築され、長距離依存関係を同時にキャプチャし、地域的特徴表現を強化する。
マルチスケールの畳み込みによって処理される特徴マップに対して適応的なパッチスキャンを行い、リッチなローカル領域情報をキャプチャする。
論文 参考訳(メタデータ) (2025-08-14T11:31:43Z) - MS-UMamba: An Improved Vision Mamba Unet for Fetal Abdominal Medical Image Segmentation [1.2721397985664153]
胎児超音波画像分割のためのハイブリッド・コンボリューション・マンバモデルであるMS-UMambaを提案する。
具体的には,マンバのグローバルなモデリング強度を利用するCNNブランチと統合された視覚状態空間ブロックを設計する。
また,異なる層からの特徴情報を統合した効率的なマルチスケール機能融合モジュールを提案する。
論文 参考訳(メタデータ) (2025-06-14T10:34:10Z) - VRS-UIE: Value-Driven Reordering Scanning for Underwater Image Enhancement [104.78586859995333]
状態空間モデル(SSM)は、線形複雑性と大域的受容場のために、視覚タスクの有望なバックボーンとして登場した。
大型で均質だが無意味な海洋背景の優位性は、希少で価値ある標的の特徴表現応答を希薄にすることができる。
水中画像強調(UIE)のための新しい値駆動リダクションスキャンフレームワークを提案する。
本フレームワークは, 水バイアスを効果的に抑制し, 構造や色彩の忠実さを保ち, 優れた向上性能(WMambaを平均0.89dB超える)を実現する。
論文 参考訳(メタデータ) (2025-05-02T12:21:44Z) - ContextFormer: Redefining Efficiency in Semantic Segmentation [48.81126061219231]
畳み込み法は、局所的な依存関係をうまく捉えるが、長距離関係に苦慮する。
ビジョントランスフォーマー(ViT)は、グローバルなコンテキストキャプチャでは優れるが、高い計算要求によって妨げられる。
我々は,リアルタイムセマンティックセグメンテーションの効率,精度,堅牢性のバランスをとるために,CNN と ViT の強みを活用したハイブリッドフレームワーク ContextFormer を提案する。
論文 参考訳(メタデータ) (2025-01-31T16:11:04Z) - MLLA-UNet: Mamba-like Linear Attention in an Efficient U-Shape Model for Medical Image Segmentation [6.578088710294546]
従来のセグメンテーション手法は、高い解剖学的変動、ぼやけた組織の境界、低い臓器コントラスト、ノイズといった課題に対処するのに苦労する。
MLLA-UNet(Mamba-like Linear Attention UNet)を提案する。
MLLA-UNetは、FLARE22、AMOS CT、ACDCに限らず、24の異なるセグメンテーションタスクを持つ6つの挑戦的なデータセットに対して、平均88.32%の最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2024-10-31T08:54:23Z) - MambaClinix: Hierarchical Gated Convolution and Mamba-Based U-Net for Enhanced 3D Medical Image Segmentation [6.673169053236727]
医用画像分割のための新しいU字型アーキテクチャであるMambaClinixを提案する。
MambaClinixは、階層的なゲート畳み込みネットワークとMambaを適応的なステージワイドフレームワークに統合する。
以上の結果から,MambaClinixは低モデルの複雑さを維持しつつ高いセグメンテーション精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-09-19T07:51:14Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。