論文の概要: VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel
- arxiv url: http://arxiv.org/abs/2511.00981v1
- Date: Sun, 02 Nov 2025 15:47:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.013779
- Title: VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel
- Title(参考訳): VesSAM: 複雑な容器を分割する効率的なマルチプロンプト
- Authors: Suzhong Fu, Rui Sun, Xuan Ding, Jingqi Dong, Yiming Yang, Yao Zhu, Min Chang Jordan Ren, Delin Deng, Angelica Aviles-Rivero, Shuguang Cui, Zhen Li,
- Abstract要約: 本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
- 参考スコア(独自算出の注目度): 68.24765319399286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate vessel segmentation is critical for clinical applications such as disease diagnosis and surgical planning, yet remains challenging due to thin, branching structures and low texture contrast. While foundation models like the Segment Anything Model (SAM) have shown promise in generic segmentation, they perform sub-optimally on vascular structures. In this work, we present VesSAM, a powerful and efficient framework tailored for 2D vessel segmentation. VesSAM integrates (1) a convolutional adapter to enhance local texture features, (2) a multi-prompt encoder that fuses anatomical prompts, including skeletons, bifurcation points, and segment midpoints, via hierarchical cross-attention, and (3) a lightweight mask decoder to reduce jagged artifacts. We also introduce an automated pipeline to generate structured multi-prompt annotations, and curate a diverse benchmark dataset spanning 8 datasets across 5 imaging modalities. Experimental results demonstrate that VesSAM consistently outperforms state-of-the-art PEFT-based SAM variants by over 10% Dice and 13% IoU, and achieves competitive performance compared to fully fine-tuned methods, with significantly fewer parameters. VesSAM also generalizes well to out-of-distribution (OoD) settings, outperforming all baselines in average OoD Dice and IoU.
- Abstract(参考訳): 正確な血管分割は、疾患診断や手術計画などの臨床応用において重要であるが、細い分岐構造と低テクスチャコントラストのため、依然として困難である。
Segment Anything Model (SAM)のような基盤モデルは、一般的なセグメンテーションにおいて有望であることを示しているが、それらは血管構造に対して準最適に実行する。
本研究では,2次元容器セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAM は,(1) 局所テクスチャ特性を高める畳み込みアダプタ,(2) 骨格,分岐点,セグメント中点を含む解剖学的プロンプトを融合するマルチプロンプトエンコーダ,(3) ジャグアーティファクトを減らす軽量マスクデコーダを統合した。
また、構造化されたマルチプロンプトアノテーションを生成する自動パイプラインを導入し、5つの画像モダリティにまたがる8つのデータセットにまたがる多様なベンチマークデータセットをキュレートします。
実験の結果、VesSAMは最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫した性能を示し、完全に微調整された手法と比較して、かなり少ないパラメータで競合性能を実現している。
VesSAMはまた、オフ・オブ・ディストリビューション(OoD)設定を一般化し、平均的なOoD DiceとIoUですべてのベースラインを上回ります。
関連論文リスト
- BALR-SAM: Boundary-Aware Low-Rank Adaptation of SAM for Resource-Efficient Medical Image Segmentation [11.634558989215392]
Segment Anything Model (SAM)のようなビジョン基盤モデルは、ドメイン固有の適応が欠如しているため、しばしば医療画像のセグメンテーションに苦労する。
医療画像のSAMを強化する境界対応低ランク適応フレームワークであるBALR-SAMを提案する。
2) SAMのVision Transformerブロックに組み込まれた低ランクのアダプタは、医学的コンテキストにおける特徴表現と注意を最適化し、同時にパラメータ空間を著しく削減する。
論文 参考訳(メタデータ) (2025-09-29T02:36:09Z) - VesselSAM: Leveraging SAM for Aortic Vessel Segmentation with AtrousLoRA [4.760487191715233]
大動脈血管分節に対するSegment Anything Model(SAM)の拡張版であるVesselSAMを提案する。
VesselSAM には,Atrous Attention と Low-Rank Adaptation (LoRA) を統合した新たなモジュールであるAtrousLoRA が組み込まれている。
本稿では,Aortic Vessel Tree (AVT) データセットとType-B Aortic Dissection (TBAD) データセットの2つの挑戦的データセットを用いて VesselSAM を評価する。
論文 参考訳(メタデータ) (2025-02-25T13:26:06Z) - DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - PAM: A Propagation-Based Model for Segmenting Any 3D Objects across Multi-Modal Medical Images [11.373941923130305]
PAM(Propagating Anything Model)は、境界ボックスやスケッチのような2Dプロンプトを使用して、医療画像ボリュームの完全な3Dセグメンテーションを作成するセグメンテーションアプローチである。
MedSAMやSegVolのような既存のモデルでは、44の医療データセットと様々な種類のオブジェクトに対して平均18.1%以上のダイス類似度係数(DSC)が向上した。
論文 参考訳(メタデータ) (2024-08-25T13:42:47Z) - Novel adaptation of video segmentation to 3D MRI: efficient zero-shot knee segmentation with SAM2 [1.6237741047782823]
Segment Anything Model 2 を応用した3次元膝関節MRIのゼロショット単発セグメンテーション法を提案する。
3次元医用ボリュームのスライスを個々のビデオフレームとして扱うことで、SAM2の高度な能力を利用して、モーションおよび空間認識の予測を生成する。
SAM2は、訓練や微調整を伴わずに、ゼロショット方式でセグメント化タスクを効率的に実行できることを実証する。
論文 参考訳(メタデータ) (2024-08-08T21:39:15Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。