論文の概要: VesselSAM: Leveraging SAM for Aortic Vessel Segmentation with LoRA and Atrous Attention
- arxiv url: http://arxiv.org/abs/2502.18185v1
- Date: Tue, 25 Feb 2025 13:26:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:19:14.884137
- Title: VesselSAM: Leveraging SAM for Aortic Vessel Segmentation with LoRA and Atrous Attention
- Title(参考訳): VesselSAM: LoRA と Atrous Attention を併用した大動脈血管拡張術における SAM の活用
- Authors: Adnan Iltaf, Rayan Merghani Ahmed, Bin Li, Shoujun Zhou,
- Abstract要約: 大動脈血管分節に対するAnything Model (SAM) の修正版である VesselSAM を提案する。
VesselSAM には,Atrous Attention と Low-Rank Adaptation (LoRA) を組み合わせたセグメンテーションパフォーマンス向上のための新モジュールであるAtrousLoRA が組み込まれている。
VesselSAMをAortic Vessel Tree (AVT) データセットとType-B Aortic Dissection (TBAD) データセットの2つの挑戦的なデータセットで評価する。
- 参考スコア(独自算出の注目度): 4.259086547278879
- License:
- Abstract: Medical image segmentation is crucial for clinical diagnosis and treatment planning, particularly for complex anatomical structures like vessels. In this work, we propose VesselSAM, a modified version of the Segmentation Anything Model (SAM), specifically designed for aortic vessel segmentation. VesselSAM incorporates AtrousLoRA, a novel module that combines Atrous Attention with Low-Rank Adaptation (LoRA), to improve segmentation performance. Atrous Attention enables the model to capture multi-scale contextual information, preserving both fine local details and broader global context. At the same time, LoRA facilitates efficient fine-tuning of the frozen SAM image encoder, reducing the number of trainable parameters and ensuring computational efficiency. We evaluate VesselSAM on two challenging datasets: the Aortic Vessel Tree (AVT) dataset and the Type-B Aortic Dissection (TBAD) dataset. VesselSAM achieves state-of-the-art performance with DSC scores of 93.50\%, 93.25\%, 93.02\%, and 93.26\% across multiple medical centers. Our results demonstrate that VesselSAM delivers high segmentation accuracy while significantly reducing computational overhead compared to existing large-scale models. This development paves the way for enhanced AI-based aortic vessel segmentation in clinical environments. The code and models will be released at https://github.com/Adnan-CAS/AtrousLora.
- Abstract(参考訳): 医用画像分割は臨床診断や治療計画、特に血管のような複雑な解剖学的構造において重要である。
本研究では,大動脈血管の分節に特化して設計されたSegmentation Anything Model (SAM) の修正版であるVesselSAMを提案する。
VesselSAM には,Atrous Attention と Low-Rank Adaptation (LoRA) を組み合わせた新たなモジュールであるAtrousLoRA が組み込まれ,セグメンテーションのパフォーマンスが向上している。
Atrous Attentionは、局所的な細部とより広いグローバルなコンテキストの両方を保存することで、マルチスケールのコンテキスト情報をキャプチャすることを可能にする。
同時に、LoRAは凍ったSAMイメージエンコーダの効率的な微調整を容易にし、トレーニング可能なパラメータの数を減らし、計算効率を確保する。
VesselSAMをAortic Vessel Tree (AVT) データセットとType-B Aortic Dissection (TBAD) データセットの2つの挑戦的なデータセットで評価する。
VesselSAMは、DSCスコア93.50\%、93.25\%、93.02\%、93.26\%の最先端のパフォーマンスを達成している。
以上の結果から,VesselSAMは既存の大規模モデルに比べて計算オーバーヘッドを大幅に低減しつつ,高いセグメンテーション精度を実現することが示された。
この開発は、臨床環境におけるAIベースの大動脈のセグメンテーションを強化する道を開く。
コードとモデルはhttps://github.com/Adnan-CAS/AtrousLora.comでリリースされる。
関連論文リスト
- Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - Assessing Foundational Medical 'Segment Anything' (Med-SAM1, Med-SAM2) Deep Learning Models for Left Atrial Segmentation in 3D LGE MRI [0.0]
心房細動(AF)は心不整脈の最も一般的な疾患であり、心不全や脳卒中と関連している。
多様なデータセットで事前トレーニングされたSegment Anything Model(SAM)のようなディープラーニングモデルは、ジェネリックセグメンテーションタスクにおいて有望であることを示している。
MedSAMモデルの可能性にもかかわらず、3D LGE-MRIにおけるLAセグメンテーションの複雑なタスクについてはまだ評価されていない。
論文 参考訳(メタデータ) (2024-11-08T20:49:54Z) - Novel adaptation of video segmentation to 3D MRI: efficient zero-shot knee segmentation with SAM2 [1.6237741047782823]
Segment Anything Model 2 を応用した3次元膝関節MRIのゼロショット単発セグメンテーション法を提案する。
3次元医用ボリュームのスライスを個々のビデオフレームとして扱うことで、SAM2の高度な能力を利用して、モーションおよび空間認識の予測を生成する。
SAM2は、訓練や微調整を伴わずに、ゼロショット方式でセグメント化タスクを効率的に実行できることを実証する。
論文 参考訳(メタデータ) (2024-08-08T21:39:15Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - SAM-VMNet: Deep Neural Networks For Coronary Angiography Vessel Segmentation [2.6879908098704544]
我々は,MedSAMの強力な特徴抽出機能と VM-UNet の線形複雑性の利点を組み合わせた新しいアーキテクチャ SAM-VMNet を提案する。
実験の結果、SAM-VMNetアーキテクチャはCTAイメージセグメンテーションタスクにおいて、98.32%までのセグメンテーション精度と99.33%までの感度で優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-01T16:45:33Z) - nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance [12.169801149021566]
Segment Anything Model (SAM)は、特定のドメイントレーニングなしで画像セグメンテーションのための汎用ツールとして登場した。
nnUNetのような従来のモデルは推論中に自動セグメンテーションを実行するが、広範なドメイン固有のトレーニングが必要である。
提案するnnSAMは,SAMの頑健な特徴抽出とnnUNetの自動構成を統合し,小さなデータセットのセグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2023-09-29T04:26:25Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Cheap Lunch for Medical Image Segmentation by Fine-tuning SAM on Few
Exemplars [19.725817146049707]
Segment Anything Model (SAM) はスケールアップセグメンテーションモデルの顕著な機能を示した。
しかし, 医療領域における基礎モデルの導入は, 十分なデータのラベル付けが困難で費用がかかるため, 課題となっている。
本稿では,限られた数の例を用いてSAMを微調整するための効率的かつ実用的な手法を提案する。
論文 参考訳(メタデータ) (2023-08-27T15:21:25Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Multi-Task Neural Networks with Spatial Activation for Retinal Vessel
Segmentation and Artery/Vein Classification [49.64863177155927]
本稿では,網膜血管,動脈,静脈を同時に分割する空間活性化機構を備えたマルチタスクディープニューラルネットワークを提案する。
提案するネットワークは,容器分割における画素ワイド精度95.70%,A/V分類精度94.50%を実現している。
論文 参考訳(メタデータ) (2020-07-18T05:46:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。