論文の概要: DSVM-UNet : Enhancing VM-UNet with Dual Self-distillation for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2601.19690v1
- Date: Tue, 27 Jan 2026 15:06:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.362295
- Title: DSVM-UNet : Enhancing VM-UNet with Dual Self-distillation for Medical Image Segmentation
- Title(参考訳): DSVM-UNet : 医用画像セグメンテーションのための二重自己蒸留によるVM-UNetの強化
- Authors: Renrong Shao, Dongyang Li, Dong Xia, Lin Shao, Jiangdong Lu, Fen Zheng, Lulu Zhang,
- Abstract要約: 複雑なアーキテクチャ設計を伴わずにVM-UNet (DSVM-UNet) のための二重自己蒸留法によりモデルを改善するための簡易かつ効果的な手法を提案する。
本手法は計算効率を保ちながら最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 18.35953332045796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision Mamba models have been extensively researched in various fields, which address the limitations of previous models by effectively managing long-range dependencies with a linear-time overhead. Several prospective studies have further designed Vision Mamba based on UNet(VM-UNet) for medical image segmentation. These approaches primarily focus on optimizing architectural designs by creating more complex structures to enhance the model's ability to perceive semantic features. In this paper, we propose a simple yet effective approach to improve the model by Dual Self-distillation for VM-UNet (DSVM-UNet) without any complex architectural designs. To achieve this goal, we develop double self-distillation methods to align the features at both the global and local levels. Extensive experiments conducted on the ISIC2017, ISIC2018, and Synapse benchmarks demonstrate that our approach achieves state-of-the-art performance while maintaining computational efficiency. Code is available at https://github.com/RoryShao/DSVM-UNet.git.
- Abstract(参考訳): ビジョン・マンバモデルは様々な分野で広く研究されており、線形時間オーバーヘッドで長距離依存を効果的に管理することで、過去のモデルの限界に対処している。
医療画像セグメンテーションのためのUNet(VM-UNet)に基づくビジョン・マンバをさらに設計した。
これらのアプローチは主に、セマンティックな特徴を知覚するモデルの能力を高めるために、より複雑な構造を作成することによってアーキテクチャ設計を最適化することに焦点を当てている。
本稿では,VM-UNet (DSVM-UNet) のための二重自己蒸留法(Dual Self-distillation for VM-UNet)により,複雑なアーキテクチャ設計を伴わずにモデルを改善するための簡易かつ効果的な手法を提案する。
この目的を達成するために、グローバルレベルとローカルレベルの両方で特徴を整合させる二重自己蒸留法を開発した。
ISIC2017、ISIC2018、Synapseベンチマークで行った大規模な実験は、我々の手法が計算効率を維持しながら最先端の性能を達成することを実証している。
コードはhttps://github.com/RoryShao/DSVM-UNet.gitで入手できる。
関連論文リスト
- From One-to-One to Many-to-Many: Dynamic Cross-Layer Injection for Deep Vision-Language Fusion [91.35078719566472]
VLM(Vision-Language Models)は、粗い非対称接続を使用することで、深刻な視覚的特徴のボトルネックを生み出す。
CLI(Cross-Layer Injection)は,2つのモダリティの間に動的に多対多の橋を架ける,斬新で軽量なフレームワークである。
論文 参考訳(メタデータ) (2026-01-15T18:59:10Z) - Medical Image Segmentation Using Advanced Unet: VMSE-Unet and VM-Unet CBAM+ [1.1056622446799464]
医用画像のセグメンテーションを強化するために,VMSE U-Net と VM-Unet CBAM+ モデルを提案する。
我々のアプローチは、従来のVM U-NetフレームワークにSqueeze-and-Excitation(SE)とConvolutional Block Attention Module(CBAM)技術を統合する。
どちらのモデルも、複数のデータセットにわたるベースラインVM-Unetよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-07-01T07:27:11Z) - MSVM-UNet: Multi-Scale Vision Mamba UNet for Medical Image Segmentation [3.64388407705261]
医用画像分割のためのマルチスケールビジョンマンバUNetモデルMSVM-UNetを提案する。
具体的には、VSSブロックにマルチスケールの畳み込みを導入することで、VMambaエンコーダの階層的特徴から、より効果的にマルチスケールの特徴表現をキャプチャし、集約することができる。
論文 参考訳(メタデータ) (2024-08-25T06:20:28Z) - VM-UNet: Vision Mamba UNet for Medical Image Segmentation [2.3876474175791302]
医用画像セグメンテーションのためのU字型アーキテクチャモデルVision Mamba UNet(VM-UNet)を提案する。
我々はISIC17,ISIC18,Synapseデータセットの総合的な実験を行い,VM-UNetが医用画像分割タスクにおいて競争力を発揮することを示す。
論文 参考訳(メタデータ) (2024-02-04T13:37:21Z) - VMamba: Visual State Space Model [98.0517369083152]
状態空間言語モデルであるMambaを、線形時間複雑性を持つビジョンバックボーンであるVMambaに適合させる。
VMambaのコアには2D Selective Scan (SS2D)モジュールを備えたVisual State-Space (VSS)ブロックのスタックがある。
論文 参考訳(メタデータ) (2024-01-18T17:55:39Z) - Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Model [48.233300343211205]
We propose a new generic vision backbone with bidirectional Mamba block (Vim)。
Vimは画像列を位置埋め込みでマークし、視覚表現を双方向の状態空間モデルで圧縮する。
その結果,高解像度画像に対するTransformerスタイルの理解において,Vimは計算とメモリの制約を克服できることがわかった。
論文 参考訳(メタデータ) (2024-01-17T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。