論文の概要: VesselSAM: Leveraging SAM for Aortic Vessel Segmentation with LoRA and Atrous Attention
- arxiv url: http://arxiv.org/abs/2502.18185v3
- Date: Wed, 26 Mar 2025 06:10:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 14:57:01.272951
- Title: VesselSAM: Leveraging SAM for Aortic Vessel Segmentation with LoRA and Atrous Attention
- Title(参考訳): VesselSAM: LoRA と Atrous Attention を併用した大動脈血管拡張術における SAM の活用
- Authors: Adnan Iltaf, Rayan Merghani Ahmed, Zhenxi Zhang, Bin Li, Shoujun Zhou,
- Abstract要約: 大動脈血管分節に対するSegment Anything Model(SAM)の拡張版であるVesselSAMを提案する。
VesselSAM には,Atrous Attention と Low-Rank Adaptation (LoRA) を統合した新たなモジュールであるAtrousLoRA が組み込まれている。
本稿では,Aortic Vessel Tree (AVT) データセットとType-B Aortic Dissection (TBAD) データセットの2つの挑戦的データセットを用いて VesselSAM を評価する。
- 参考スコア(独自算出の注目度): 4.760487191715233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation is crucial for clinical diagnosis and treatment planning, especially when dealing with complex anatomical structures such as vessels. However, accurately segmenting vessels remains challenging due to their small size, intricate edge structures, and susceptibility to artifacts and imaging noise. In this work, we propose VesselSAM, an enhanced version of the Segment Anything Model (SAM), specifically tailored for aortic vessel segmentation. VesselSAM incorporates AtrousLoRA, a novel module integrating Atrous Attention and Low-Rank Adaptation (LoRA), to enhance segmentation performance. Atrous Attention enables the model to capture multi-scale contextual information, preserving both fine-grained local details and broader global context. Additionally, LoRA facilitates efficient fine-tuning of the frozen SAM image encoder, reducing the number of trainable parameters and thereby enhancing computational efficiency. We evaluate VesselSAM using two challenging datasets: the Aortic Vessel Tree (AVT) dataset and the Type-B Aortic Dissection (TBAD) dataset. VesselSAM achieves state-of-the-art performance, attaining DSC scores of 93.50\%, 93.25\%, 93.02\%, and 93.26\% across multi-center datasets. Our results demonstrate that VesselSAM delivers high segmentation accuracy while significantly reducing computational overhead compared to existing large-scale models. This development paves the way for enhanced AI-based aortic vessel segmentation in clinical environments. The code and models will be released at https://github.com/Adnan-CAS/AtrousLora.
- Abstract(参考訳): 臨床診断や治療計画、特に血管などの複雑な解剖学的構造を扱う場合、医用画像のセグメンテーションは不可欠である。
しかし、小さなサイズ、複雑なエッジ構造、人工物や画像ノイズへの感受性のため、正確なセグメンテーションは依然として困難である。
本研究では,大動脈血管の分節に特化されたSegment Anything Model(SAM)の拡張版であるVesselSAMを提案する。
VesselSAMには、Atrous Attention and Low-Rank Adaptation (LoRA)を統合した新しいモジュールであるAtrousLoRAが組み込まれており、セグメンテーション性能が向上している。
Atrous Attentionにより、モデルはマルチスケールのコンテキスト情報をキャプチャし、きめ細かい局所的な詳細とより広いグローバルなコンテキストの両方を保存することができる。
さらに、冷凍SAMイメージエンコーダの効率的な微調整を容易にし、トレーニング可能なパラメータの数を削減し、計算効率を向上させる。
本稿では,Aortic Vessel Tree (AVT) データセットとType-B Aortic Dissection (TBAD) データセットの2つの挑戦的データセットを用いて VesselSAM を評価する。
VesselSAMは最先端のパフォーマンスを達成し、DSCスコアは93.50\%、93.25\%、93.02\%、93.26\%となる。
以上の結果から,VesselSAMは既存の大規模モデルに比べて計算オーバーヘッドを大幅に低減しつつ,高いセグメンテーション精度を実現することが示された。
この開発は、臨床環境におけるAIベースの大動脈のセグメンテーションを強化する道を開く。
コードとモデルはhttps://github.com/Adnan-CAS/AtrousLora.comでリリースされる。
関連論文リスト
- Performance Analysis of Deep Learning Models for Femur Segmentation in MRI Scan [5.5193366921929155]
我々は3つのCNNベースモデル(U-Net, Attention U-Net, U-KAN)と1つのトランスフォーマーベースモデルSAM 2の性能評価と比較を行った。
このデータセットは11,164個のMRIスキャンと大腿骨領域の詳細なアノテーションから構成されている。
注意点U-Netは全体のスコアが最も高く、U-KANは興味の少ない解剖学的領域において優れたパフォーマンスを示した。
論文 参考訳(メタデータ) (2025-04-05T05:47:56Z) - Efficient Knowledge Distillation of SAM for Medical Image Segmentation [0.04672991859386895]
Segment Anything Model (SAM)はインタラクティブなイメージセグメンテーションの新しい標準を設定し、さまざまなタスクで堅牢なパフォーマンスを提供する。
我々は, エンコーダとデコーダの最適化を, Mean Squared Error (MSE) と Perceptual Loss の組み合わせで組み合わせた新しい知識蒸留手法 KD SAM を提案する。
KD SAMはセグメンテーションの精度と計算効率を効果的にバランスさせ、資源制約のある環境でリアルタイムの医用画像セグメンテーションに適している。
論文 参考訳(メタデータ) (2025-01-28T06:33:30Z) - Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - Optimized Vessel Segmentation: A Structure-Agnostic Approach with Small Vessel Enhancement and Morphological Correction [7.882674026364302]
マルチモーダル血管セグメンテーションのための小型血管拡張と形態的補正を取り入れた構造診断手法を提案する。
本手法は,より優れたセグメンテーション精度,一般化,34.6%の接続性向上を実現し,臨床応用の可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T08:38:30Z) - Assessing Foundational Medical 'Segment Anything' (Med-SAM1, Med-SAM2) Deep Learning Models for Left Atrial Segmentation in 3D LGE MRI [0.0]
心房細動(AF)は心不整脈の最も一般的な疾患であり、心不全や脳卒中と関連している。
多様なデータセットで事前トレーニングされたSegment Anything Model(SAM)のようなディープラーニングモデルは、ジェネリックセグメンテーションタスクにおいて有望であることを示している。
MedSAMモデルの可能性にもかかわらず、3D LGE-MRIにおけるLAセグメンテーションの複雑なタスクについてはまだ評価されていない。
論文 参考訳(メタデータ) (2024-11-08T20:49:54Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - PAM: A Propagation-Based Model for Segmenting Any 3D Objects across Multi-Modal Medical Images [11.373941923130305]
PAM(Propagating Anything Model)は、境界ボックスやスケッチのような2Dプロンプトを使用して、医療画像ボリュームの完全な3Dセグメンテーションを作成するセグメンテーションアプローチである。
MedSAMやSegVolのような既存のモデルでは、44の医療データセットと様々な種類のオブジェクトに対して平均18.1%以上のダイス類似度係数(DSC)が向上した。
論文 参考訳(メタデータ) (2024-08-25T13:42:47Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Novel adaptation of video segmentation to 3D MRI: efficient zero-shot knee segmentation with SAM2 [1.6237741047782823]
Segment Anything Model 2 を応用した3次元膝関節MRIのゼロショット単発セグメンテーション法を提案する。
3次元医用ボリュームのスライスを個々のビデオフレームとして扱うことで、SAM2の高度な能力を利用して、モーションおよび空間認識の予測を生成する。
SAM2は、訓練や微調整を伴わずに、ゼロショット方式でセグメント化タスクを効率的に実行できることを実証する。
論文 参考訳(メタデータ) (2024-08-08T21:39:15Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - SAM-VMNet: Deep Neural Networks For Coronary Angiography Vessel Segmentation [2.6879908098704544]
我々は,MedSAMの強力な特徴抽出機能と VM-UNet の線形複雑性の利点を組み合わせた新しいアーキテクチャ SAM-VMNet を提案する。
実験の結果、SAM-VMNetアーキテクチャはCTAイメージセグメンテーションタスクにおいて、98.32%までのセグメンテーション精度と99.33%までの感度で優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-01T16:45:33Z) - ClassWise-SAM-Adapter: Parameter Efficient Fine-tuning Adapts Segment
Anything to SAR Domain for Semantic Segmentation [6.229326337093342]
Segment Anything Model (SAM) は意味情報と一般化能力に依存する様々なセグメンテーションシナリオを抽出する。
The ClassWiseSAM-Adapter (CWSAM) is designed to adapt the high-performing SAM for landcover classification on Spaceborne Synthetic Aperture Radar (SAR) images。
CWSAMは、少ないコンピューティングリソースでパフォーマンスを向上する。
論文 参考訳(メタデータ) (2024-01-04T15:54:45Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Cheap Lunch for Medical Image Segmentation by Fine-tuning SAM on Few
Exemplars [19.725817146049707]
Segment Anything Model (SAM) はスケールアップセグメンテーションモデルの顕著な機能を示した。
しかし, 医療領域における基礎モデルの導入は, 十分なデータのラベル付けが困難で費用がかかるため, 課題となっている。
本稿では,限られた数の例を用いてSAMを微調整するための効率的かつ実用的な手法を提案する。
論文 参考訳(メタデータ) (2023-08-27T15:21:25Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - SAMRS: Scaling-up Remote Sensing Segmentation Dataset with Segment
Anything Model [85.85899655118087]
我々はSAMRSと呼ばれる大規模RSセグメンテーションデータセットを生成するための効率的なパイプラインを開発する。
SAMRSは完全に105,090の画像と1,668,241のインスタンスを持ち、既存の高解像度RSセグメンテーションデータセットを数桁上回っている。
論文 参考訳(メタデータ) (2023-05-03T10:58:07Z) - Multi-Task Neural Networks with Spatial Activation for Retinal Vessel
Segmentation and Artery/Vein Classification [49.64863177155927]
本稿では,網膜血管,動脈,静脈を同時に分割する空間活性化機構を備えたマルチタスクディープニューラルネットワークを提案する。
提案するネットワークは,容器分割における画素ワイド精度95.70%,A/V分類精度94.50%を実現している。
論文 参考訳(メタデータ) (2020-07-18T05:46:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。