論文の概要: LightM-UNet: Mamba Assists in Lightweight UNet for Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2403.05246v2
- Date: Mon, 11 Mar 2024 07:14:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 13:21:50.853497
- Title: LightM-UNet: Mamba Assists in Lightweight UNet for Medical Image
Segmentation
- Title(参考訳): lightm-unet: 医療用画像セグメンテーションのための軽量unetのmamba支援
- Authors: Weibin Liao and Yinghao Zhu and Xinyuan Wang and Chengwei Pan and
Yasha Wang and Liantao Ma
- Abstract要約: 本稿では,軽量なフレームワークとして,Mamba と UNet を統合した Lightweight Mamba UNet (LightM-UNet) を紹介する。
特に、LightM-UNetはResidual Vision Mamba Layerを純粋なMamba方式で利用し、深い意味的特徴を抽出し、長距離空間依存をモデル化する。
2つの実世界の2D/3Dデータセットで実施された実験は、LightM-UNetが既存の最先端の文献を上回っていることを示している。
- 参考スコア(独自算出の注目度): 10.563051220050035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: UNet and its variants have been widely used in medical image segmentation.
However, these models, especially those based on Transformer architectures,
pose challenges due to their large number of parameters and computational
loads, making them unsuitable for mobile health applications. Recently, State
Space Models (SSMs), exemplified by Mamba, have emerged as competitive
alternatives to CNN and Transformer architectures. Building upon this, we
employ Mamba as a lightweight substitute for CNN and Transformer within UNet,
aiming at tackling challenges stemming from computational resource limitations
in real medical settings. To this end, we introduce the Lightweight Mamba UNet
(LightM-UNet) that integrates Mamba and UNet in a lightweight framework.
Specifically, LightM-UNet leverages the Residual Vision Mamba Layer in a pure
Mamba fashion to extract deep semantic features and model long-range spatial
dependencies, with linear computational complexity. Extensive experiments
conducted on two real-world 2D/3D datasets demonstrate that LightM-UNet
surpasses existing state-of-the-art literature. Notably, when compared to the
renowned nnU-Net, LightM-UNet achieves superior segmentation performance while
drastically reducing parameter and computation costs by 116x and 21x,
respectively. This highlights the potential of Mamba in facilitating model
lightweighting. Our code implementation is publicly available at
https://github.com/MrBlankness/LightM-UNet.
- Abstract(参考訳): UNetとその変種は医療画像のセグメンテーションで広く使われている。
しかしながら、これらのモデル、特にTransformerアーキテクチャに基づくモデルは、多数のパラメータと計算負荷のために問題を起こし、モバイルヘルスアプリケーションには適さない。
最近、Mambaによって実証されたState Space Models (SSM) が、CNNやTransformerアーキテクチャの代替として登場した。
これに基づいて我々は、mambaをunet内のcnnとtransformerの軽量な代替として採用し、実際の医療環境での計算資源の制限に起因する課題に取り組むことを目的としています。
この目的のために、軽量フレームワークにMambaとUNetを統合するLightweight Mamba UNet(LightM-UNet)を紹介します。
特に、LightM-UNetはResidual Vision Mamba Layerを純粋なMamba方式で利用し、深い意味的特徴を抽出し、線形計算複雑性で長距離空間依存をモデル化する。
2つの実世界の2D/3Dデータセットで実施された大規模な実験は、LightM-UNetが既存の最先端の文献を上回っていることを示している。
特に、有名なnnU-Netと比較して、LightM-UNetは、パラメータと計算コストをそれぞれ116倍と21倍に大幅に削減しながら、優れたセグメンテーション性能を達成する。
これはモデルの軽量化を促進するMambaの可能性を強調している。
私たちのコード実装はhttps://github.com/MrBlankness/LightM-UNetで公開されています。
関連論文リスト
- A Comprehensive Survey of Mamba Architectures for Medical Image Analysis: Classification, Segmentation, Restoration and Beyond [2.838321145442743]
Mambaは、医用画像分析におけるテンプレートベースのディープラーニングアプローチに代わるものだ。
線形時間の複雑さがあり、トランスよりも大幅に改善されている。
Mambaは、注意機構のない長いシーケンスを処理し、高速な推論を可能にし、メモリを少なくする。
論文 参考訳(メタデータ) (2024-10-03T10:23:03Z) - UNetMamba: An Efficient UNet-Like Mamba for Semantic Segmentation of High-Resolution Remote Sensing Images [4.9571046933387395]
UNetMambaは、MambaをベースにしたUNetに似たセマンティックセグメンテーションモデルである。
UNetMambaは、mIoUによる最先端の手法よりも、LoveDAでは0.87%、ISPRS Vaihingenでは0.39%向上している。
論文 参考訳(メタデータ) (2024-08-21T11:53:53Z) - LaMamba-Diff: Linear-Time High-Fidelity Diffusion Models Based on Local Attention and Mamba [54.85262314960038]
局所的意図的マンバブロックは、大域的コンテキストと局所的詳細の両方を線形複雑性でキャプチャする。
このモデルは, 256x256の解像度で, ImageNet上の様々なモデルスケールでDiTの性能を上回り, 優れたスケーラビリティを示す。
ImageNet 256x256 と 512x512 の最先端拡散モデルと比較すると,最大 62% GFLOP の削減など,我々の最大のモデルには顕著な利点がある。
論文 参考訳(メタデータ) (2024-08-05T16:39:39Z) - MambaVision: A Hybrid Mamba-Transformer Vision Backbone [54.965143338206644]
本稿では,視覚応用に適した新しいハイブリッド型Mamba-TransformerバックボーンであるMambaVisionを提案する。
私たちのコアコントリビューションには、視覚的特徴の効率的なモデリング能力を高めるために、Mambaの定式化を再設計することが含まれています。
視覚変換器(ViT)とマンバの統合可能性に関する包括的アブレーション研究を行う。
論文 参考訳(メタデータ) (2024-07-10T23:02:45Z) - UltraLight VM-UNet: Parallel Vision Mamba Significantly Reduces Parameters for Skin Lesion Segmentation [2.0555786400946134]
ステートスペースモデル(SSM)は、従来のCNNやTransformerと強力な競合関係にある。
そこで我々はUltraLight Vision Mamba UNet (UltraLight VM-UNet)を提案する。
具体的には、PVM Layer という名前のVision Mamba を並列処理する手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T08:03:42Z) - ReMamber: Referring Image Segmentation with Mamba Twister [51.291487576255435]
ReMamberは、マルチモーダルなMamba TwisterブロックとMambaのパワーを統合する新しいRISアーキテクチャである。
Mamba Twisterは画像とテキストのインタラクションを明示的にモデル化し、独自のチャネルと空間的ツイスト機構を通じてテキストと視覚的特徴を融合する。
論文 参考訳(メタデータ) (2024-03-26T16:27:37Z) - LKM-UNet: Large Kernel Vision Mamba UNet for Medical Image Segmentation [9.862277278217045]
本稿では,医療画像分割のためのLKM-U-shape Network(LKM-UNet)を提案する。
LKM-UNetの際立った特徴は、小さなカーネルベースのCNNやトランスフォーマーに比べて、局所的な空間モデリングに優れた大きなMambaカーネルの利用である。
包括的実験は、大規模なマンバ核を用いて大きな受容場を実現することの実現可能性と有効性を示す。
論文 参考訳(メタデータ) (2024-03-12T05:34:51Z) - MiM-ISTD: Mamba-in-Mamba for Efficient Infrared Small Target Detection [72.46396769642787]
ネスト構造であるMamba-in-Mamba(MiM-ISTD)を開発した。
MiM-ISTDはSOTA法より8倍高速で、2048×2048$のイメージでテストすると、GPUメモリ使用率を62.2$%削減する。
論文 参考訳(メタデータ) (2024-03-04T15:57:29Z) - PointMamba: A Simple State Space Model for Point Cloud Analysis [65.59944745840866]
我々は、最近の代表的状態空間モデル(SSM)であるMambaの成功を、NLPからポイントクラウド分析タスクへ転送するPointMambaを提案する。
従来のトランスフォーマーとは異なり、PointMambaは線形複雑性アルゴリズムを採用し、グローバルなモデリング能力を示しながら計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-02-16T14:56:13Z) - Swin-UMamba: Mamba-based UNet with ImageNet-based pretraining [85.08169822181685]
本稿では,医療画像のセグメンテーションに特化して設計された新しいマンバモデルSwin-UMambaを紹介する。
Swin-UMamba は CNN や ViT,最新の Mamba ベースのモデルと比較して,優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-05T18:58:11Z) - BlackMamba: Mixture of Experts for State-Space Models [10.209192169793772]
状態空間モデル(SSM)は、最近、大規模な言語モデリングベンチマークでトランスフォーマーと競合する性能を示した。
MoEモデルは、計算コストと遅延コストを大幅に削減しながら、顕著なパフォーマンスを示している。
我々は,Mamba SSMとMoEを組み合わせた新しいアーキテクチャであるBlackMambaを紹介した。
論文 参考訳(メタデータ) (2024-02-01T07:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。