論文の概要: MedMamba: Vision Mamba for Medical Image Classification
- arxiv url: http://arxiv.org/abs/2403.03849v1
- Date: Wed, 6 Mar 2024 16:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 14:23:46.825515
- Title: MedMamba: Vision Mamba for Medical Image Classification
- Title(参考訳): MedMamba:医療画像分類のためのビジョン・マンバ
- Authors: Yubiao Yue, Zhenzhang Li
- Abstract要約: 医用画像分類のためのビジョンマンバ(メドマンバ)を提案する。
本研究では,畳み込み層の局所的特徴抽出能力と,長距離依存性を捕捉するSSM機能を組み合わせた新しいConv-SSMモジュールを提案する。
私たちの知る限りでは、Vision Mambaは医療画像分類用に作られた最初のVision Mambaだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image classification is a very fundamental and crucial task in the
field of computer vision. These years, CNN-based and Transformer-based models
are widely used in classifying various medical images. Unfortunately, The
limitation of CNNs in long-range modeling capabilities prevent them from
effectively extracting fine-grained features in medical images , while
Transformers are hampered by their quadratic computational complexity. Recent
research has shown that the state space model (SSM) represented by Mamba can
efficiently model long-range interactions while maintaining linear
computational complexity. Inspired by this, we propose Vision Mamba for medical
image classification (MedMamba). More specifically, we introduce a novel
Conv-SSM module, which combines the local feature extraction ability of
convolutional layers with the ability of SSM to capture long-range dependency.
To demonstrate the potential of MedMamba, we conduct extensive experiments
using three publicly available medical datasets with different imaging
techniques (i.e., Kvasir (endoscopic images), FETAL_PLANES_DB (ultrasound
images) and Covid19-Pneumonia-Normal Chest X-Ray (X-ray images)) and two
private datasets built by ourselves. Experimental results show that the
proposed MedMamba performs well in detecting lesions in various medical images.
To the best of our knowledge, this is the first Vision Mamba tailored for
medical image classification. The purpose of this work is to establish a new
baseline for medical image classification tasks and provide valuable insights
for the future development of more efficient and effective SSM-based artificial
intelligence algorithms and application systems in the medical. Source code has
been available at https://github.com/YubiaoYue/MedMamba.
- Abstract(参考訳): 医療画像分類はコンピュータビジョンの分野で非常に基本的かつ重要な課題である。
近年,様々な医用画像の分類にcnnモデルとトランスフォーマモデルが広く用いられている。
残念ながら、長距離モデリング能力におけるcnnの限界は、医療画像のきめ細かい特徴を効果的に抽出することを妨げるが、トランスフォーマーは二次計算の複雑さによって妨げられている。
近年の研究では、mambaに代表される状態空間モデル(ssm)が線形計算複雑性を維持しつつ、長距離相互作用を効率的にモデル化できることが示されている。
そこで我々は,医療画像分類(MedMamba)のためのVision Mambaを提案する。
具体的には,畳み込み層の局所的な特徴抽出能力とssmが長距離依存性を捉える能力を組み合わせた,新しいconv-ssmモジュールを提案する。
medmambaの可能性を示すために,画像技術(kvasir (endoscopic images) ,fetal_planes_db (ultrasound images) およびcovid-19-pneumonia-normal chest x-ray (x-ray images) の3つの公開医療データセットと,自分たちが構築した2つのプライベートデータセットを用いて,広範な実験を行った。
実験の結果,MedMambaは種々の医用画像の病変の検出に有効であった。
私たちの知る限りでは、医療画像分類に適したVision Mambaはこれが初めてです。
本研究の目的は、医用画像分類タスクの新たなベースラインを確立し、より効率的で効率的なSSMベースの人工知能アルゴリズムと医療応用システムの開発に有用な洞察を提供することである。
ソースコードはhttps://github.com/YubiaoYue/MedMamba.comで公開されている。
関連論文リスト
- A Comprehensive Survey of Mamba Architectures for Medical Image Analysis: Classification, Segmentation, Restoration and Beyond [2.838321145442743]
Mambaは、医用画像分析におけるテンプレートベースのディープラーニングアプローチに代わるものだ。
線形時間の複雑さがあり、トランスよりも大幅に改善されている。
Mambaは、注意機構のない長いシーケンスを処理し、高速な推論を可能にし、メモリを少なくする。
論文 参考訳(メタデータ) (2024-10-03T10:23:03Z) - MambaVision: A Hybrid Mamba-Transformer Vision Backbone [54.965143338206644]
本稿では,視覚応用に適した新しいハイブリッド型Mamba-TransformerバックボーンであるMambaVisionを提案する。
私たちのコアコントリビューションには、視覚的特徴の効率的なモデリング能力を高めるために、Mambaの定式化を再設計することが含まれています。
視覚変換器(ViT)とマンバの統合可能性に関する包括的アブレーション研究を行う。
論文 参考訳(メタデータ) (2024-07-10T23:02:45Z) - Self-Prior Guided Mamba-UNet Networks for Medical Image Super-Resolution [7.97504951029884]
医用画像超解像のための自己優先型マンバ-UNetネットワーク(SMamba-UNet)を提案する。
提案手法は,Mamba-UNetネットワーク下での自己優先型マルチスケールコンテキスト特徴を学習することを目的としている。
論文 参考訳(メタデータ) (2024-07-08T14:41:53Z) - HC-Mamba: Vision MAMBA with Hybrid Convolutional Techniques for Medical Image Segmentation [5.318153305245246]
本稿では,現代空間モデルMambaに基づく新しい医用画像分割モデルHC-Mambaを提案する。
HC-Mambaモデルに拡張畳み込み手法を導入し,より広い範囲の文脈情報を取得する。
さらに、HC-Mambaモデルでは、深度的に分離可能な畳み込みを採用し、パラメータの数とモデルの計算能力を大幅に削減する。
論文 参考訳(メタデータ) (2024-05-08T12:24:50Z) - Mamba-UNet: UNet-Like Pure Visual Mamba for Medical Image Segmentation [21.1787366866505]
Mamba-UNetは,医療画像のセグメンテーションにおいてU-Netとマンバの能力を相乗化する新しいアーキテクチャである。
Mamba-UNetは純粋にVisual Mamba(VMamba)ベースのエンコーダデコーダ構造を採用しており、ネットワークのさまざまなスケールで空間情報を保存するためにスキップ接続を注入している。
論文 参考訳(メタデータ) (2024-02-07T18:33:04Z) - Swin-UMamba: Mamba-based UNet with ImageNet-based pretraining [85.08169822181685]
本稿では,医療画像のセグメンテーションに特化して設計された新しいマンバモデルSwin-UMambaを紹介する。
Swin-UMamba は CNN や ViT,最新の Mamba ベースのモデルと比較して,優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-05T18:58:11Z) - Vivim: a Video Vision Mamba for Medical Video Segmentation [52.11785024350253]
本稿では、医用ビデオセグメンテーションタスクのためのビデオビジョンマンバベースのフレームワークVivimを提案する。
我々のビビムは、長期表現を様々なスケールのシーケンスに効果的に圧縮することができる。
超音波検査では甲状腺分節,乳房病変分節,大腸内視鏡検査ではポリープ分節が有効で有効であった。
論文 参考訳(メタデータ) (2024-01-25T13:27:03Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。