論文の概要: PG-SAM: Prior-Guided SAM with Medical for Multi-organ Segmentation
- arxiv url: http://arxiv.org/abs/2503.18227v3
- Date: Wed, 26 Mar 2025 13:38:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 12:47:10.37336
- Title: PG-SAM: Prior-Guided SAM with Medical for Multi-organ Segmentation
- Title(参考訳): PG-SAM:多臓器分離のための医療用プリガイドSAM
- Authors: Yiheng Zhong, Zihong Luo, Chengzhi Liu, Feilong Tang, Zelin Peng, Ming Hu, Yingzhen Hu, Jionglong Su, Zongyuan Ge, Imran Razzak,
- Abstract要約: Segment Anything Model (SAM)は強力なゼロショット機能を示す。
SAMの精度とロバスト性は、医用画像分割に適用すると著しく低下する。
我々は, 微粒なモーダリティ事前整合器を用いたプリエントガイドSAM (PG-SAM) を提案する。
- 参考スコア(独自算出の注目度): 23.98353484144839
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segment Anything Model (SAM) demonstrates powerful zero-shot capabilities; however, its accuracy and robustness significantly decrease when applied to medical image segmentation. Existing methods address this issue through modality fusion, integrating textual and image information to provide more detailed priors. In this study, we argue that the granularity of text and the domain gap affect the accuracy of the priors. Furthermore, the discrepancy between high-level abstract semantics and pixel-level boundary details in images can introduce noise into the fusion process. To address this, we propose Prior-Guided SAM (PG-SAM), which employs a fine-grained modality prior aligner to leverage specialized medical knowledge for better modality alignment. The core of our method lies in efficiently addressing the domain gap with fine-grained text from a medical LLM. Meanwhile, it also enhances the priors' quality after modality alignment, ensuring more accurate segmentation. In addition, our decoder enhances the model's expressive capabilities through multi-level feature fusion and iterative mask optimizer operations, supporting unprompted learning. We also propose a unified pipeline that effectively supplies high-quality semantic information to SAM. Extensive experiments on the Synapse dataset demonstrate that the proposed PG-SAM achieves state-of-the-art performance. Our code is released at https://github.com/logan-0623/PG-SAM.
- Abstract(参考訳): Segment Anything Model (SAM) は強力なゼロショット機能を示すが、医療画像のセグメンテーションに適用した場合、精度とロバスト性は著しく低下する。
既存の手法では、この問題をモダリティ融合を通じて解決し、テキスト情報と画像情報を統合してより詳細な事前情報を提供する。
本研究では,テキストの粒度と領域ギャップが先行の精度に影響を与えることを論じる。
さらに、画像における高レベルの抽象的意味論と画素レベルの境界詳細との相違は、融合プロセスにノイズをもたらす可能性がある。
そこで本研究では,特定の医療知識を活かし,より精密なモダリティ・アライメント・アライメントを実現するために,詳細なモダリティ・アライメント・アライメント・アライメント・システム(PG-SAM)を提案する。
本手法の核心は,医療用LLMの微細なテキストで領域ギャップを効率的に解決することにある。
一方、モダリティアライメント後の事前品質も向上し、より正確なセグメンテーションが保証される。
さらに、デコーダはマルチレベル特徴融合と反復マスクオプティマイザ操作によりモデルの表現能力を向上し、プロンプトなし学習をサポートする。
また,SAMに高品質なセマンティック情報を効果的に供給する統合パイプラインを提案する。
Synapseデータセットの大規模な実験は、提案したPG-SAMが最先端のパフォーマンスを達成することを示した。
私たちのコードはhttps://github.com/logan-0623/PG-SAMで公開されています。
関連論文リスト
- Organ-aware Multi-scale Medical Image Segmentation Using Text Prompt Engineering [17.273290949721975]
既存の医用画像分割法は、画像やビデオなどの一様視覚入力に依存しており、労働集約的な手動アノテーションを必要とする。
医用イメージング技術は、単一のスキャン内で複数の絡み合った臓器をキャプチャし、セグメンテーションの精度をさらに複雑にする。
これらの課題に対処するため、MedSAMは画像特徴とユーザが提供するプロンプトを統合することでセグメンテーションの精度を高めるために開発された。
論文 参考訳(メタデータ) (2025-03-18T01:35:34Z) - SparseMamba-PCL: Scribble-Supervised Medical Image Segmentation via SAM-Guided Progressive Collaborative Learning [9.228586820098723]
本稿では,学習中の情報品質を高めるためのプログレッシブ・コラボレーティブ・ラーニング・フレームワークを提案する。
我々は、新しいアルゴリズムにより、グラウンド・トゥルー・スクリブル・セグメンテーション・ラベルを豊かにし、オブジェクト境界を推定するためにスクリブルを伝播する。
我々は,Med-SAMとSparse Mambaネットワークの融合により,Med-SAM誘導学習を最適化し,特徴表現を強化する。
論文 参考訳(メタデータ) (2025-03-03T15:09:04Z) - Every SAM Drop Counts: Embracing Semantic Priors for Multi-Modality Image Fusion and Beyond [52.486290612938895]
マルチモダリティ画像融合は、シーン理解を強化するために多様なモダリティを統合する上で重要な役割を担っている。
近年のアプローチはタスク固有の設計に移行しているが、不整合最適化の目標のために両世界のベストを達成するのに苦労している。
本稿では,Segment Anything Model (SAM) のセグメンテーションモデルからのセグメンテーション知識を利用して,融合結果の質を向上し,下流タスク適応性(SAGE)を確立させる手法を提案する。
論文 参考訳(メタデータ) (2025-03-03T06:16:31Z) - DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - CC-SAM: SAM with Cross-feature Attention and Context for Ultrasound Image Segmentation [20.448864959103858]
Segment Anything Model (SAM) は、自然画像のセグメンテーションの領域で顕著な成功を収めた。
SAMは、低コントラスト、かすかな境界、複雑な形態、そして小さなサイズの物体を特徴とする医療画像に苦しむ。
医療領域におけるSAMの性能を高めるために,包括的修正を導入する。
論文 参考訳(メタデータ) (2024-07-31T22:24:05Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Deep Instruction Tuning for Segment Anything Model [68.7934961590075]
Segment Anything Model (SAM) はマルチメディアとコンピュータビジョンの分野で研究ホットスポットとなっている。
SAMは、異なるタイプのセグメンテーションプロンプトをサポートすることができるが、テキストで指示されたタスクでは、はるかに悪化する。
SAMのための2つの簡易かつ効果的なディープ・インストラクション・チューニング(DIT)手法を提案し,その1つはエンドツーエンドであり、もう1つはレイヤワイズである。
論文 参考訳(メタデータ) (2024-03-31T11:37:43Z) - Unleashing the Potential of SAM for Medical Adaptation via Hierarchical Decoding [15.401507589312702]
本稿では,医療画像の高速微調整のためのSegment Anything Model (SAM) の即時適応であるH-SAMを紹介する。
初期段階では、H-SAMはSAMのオリジナルのデコーダを使用して、より複雑なデコードプロセスの導出として、以前の確率マスクを生成する。
我々のH-SAMは、既存のプロンプトフリーSAMよりも平均Diceが4.78%改善していることを示す。
論文 参考訳(メタデータ) (2024-03-27T05:55:16Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。