論文の概要: Multi-Sequence Parotid Gland Lesion Segmentation via Expert Text-Guided Segment Anything Model
- arxiv url: http://arxiv.org/abs/2508.09645v1
- Date: Wed, 13 Aug 2025 09:25:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.832817
- Title: Multi-Sequence Parotid Gland Lesion Segmentation via Expert Text-Guided Segment Anything Model
- Title(参考訳): エキスパートテキスト誘導セグメントモデルによる多列耳下腺病変分割
- Authors: Zhongyuan Wu, Chuan-Xian Ren, Yu Wang, Xiaohua Ban, Jianning Xiao, Xiaohui Duan,
- Abstract要約: 耳下腺セグメントモデル(PG-SAM)は、耳下腺病変セグメント化の専門知識を取り入れている。
PG-SAMは、3つの独立した臨床センターにまたがる耳下腺病変の分節における最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 10.892625199593644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parotid gland lesion segmentation is essential for the treatment of parotid gland diseases. However, due to the variable size and complex lesion boundaries, accurate parotid gland lesion segmentation remains challenging. Recently, the Segment Anything Model (SAM) fine-tuning has shown remarkable performance in the field of medical image segmentation. Nevertheless, SAM's interaction segmentation model relies heavily on precise lesion prompts (points, boxes, masks, etc.), which are very difficult to obtain in real-world applications. Besides, current medical image segmentation methods are automatically generated, ignoring the domain knowledge of medical experts when performing segmentation. To address these limitations, we propose the parotid gland segment anything model (PG-SAM), an expert diagnosis text-guided SAM incorporating expert domain knowledge for cross-sequence parotid gland lesion segmentation. Specifically, we first propose an expert diagnosis report guided prompt generation module that can automatically generate prompt information containing the prior domain knowledge to guide the subsequent lesion segmentation process. Then, we introduce a cross-sequence attention module, which integrates the complementary information of different modalities to enhance the segmentation effect. Finally, the multi-sequence image features and generated prompts are feed into the decoder to get segmentation result. Experimental results demonstrate that PG-SAM achieves state-of-the-art performance in parotid gland lesion segmentation across three independent clinical centers, validating its clinical applicability and the effectiveness of diagnostic text for enhancing image segmentation in real-world clinical settings.
- Abstract(参考訳): 耳下腺病変の分節は耳下腺疾患の治療に不可欠である。
しかし, 変化の大きさと複雑な病変の境界から, 正確な耳下腺病変の分節はいまだに困難である。
近年,Segment Anything Model (SAM)ファインチューニングは,医用画像のセグメンテーションにおいて顕著な性能を示した。
それでもSAMの相互作用セグメンテーションモデルは、現実世界では非常に入手が難しい正確な病変プロンプト(ポイント、ボックス、マスクなど)に大きく依存している。
また、現在の医用画像セグメンテーション法は、セグメンテーションを行う際に、医療専門家のドメイン知識を無視して自動的に生成される。
これらの制約に対処するため, 耳下腺病変分類のための専門領域知識を取り入れた, テキストガイド付きSAMの専門診断モデルである耳下腺セグメントモデル(PG-SAM)を提案する。
具体的には、まず、先行ドメイン知識を含むプロンプト情報を自動生成し、その後の病変分割プロセスを導出する専門家診断レポートガイドプロンプト生成モジュールを提案する。
次に、異なるモードの補完情報を統合してセグメント化効果を高めるクロスシーケンスアテンションモジュールを提案する。
最後に、複数シーケンスの画像特徴と生成されたプロンプトをデコーダに入力してセグメント化結果を得る。
実験の結果,PG-SAMは3つの独立した臨床センターにまたがる耳下腺病変セグメンテーションの最先端性を実現し,その臨床応用性および臨床現場における画像セグメンテーション向上のための診断テキストの有効性を検証した。
関連論文リスト
- TGC-Net: A Structure-Aware and Semantically-Aligned Framework for Text-Guided Medical Image Segmentation [56.09179939570486]
本稿では,パラメータ効率,タスク固有適応に着目したCLIPベースのフレームワークであるTGC-Netを提案する。
TGC-Netは、挑戦的なベンチマークで顕著なDiceゲインを含む、トレーニング可能なパラメータをかなり少なくして、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-12-24T12:06:26Z) - Dynamically evolving segment anything model with continuous learning for medical image segmentation [50.92344083895528]
ダイナミックに進化する医療画像セグメンテーションモデルであるEvoSAMを紹介する。
EvoSAMは、継続的に拡張されるシナリオとタスクの配列から新しい知識を蓄積する。
血管セグメンテーションに関する外科医による実験により、EvoSAMはユーザプロンプトに基づいてセグメンテーション効率を高めることが確認された。
論文 参考訳(メタデータ) (2025-03-08T14:37:52Z) - MGFI-Net: A Multi-Grained Feature Integration Network for Enhanced Medical Image Segmentation [0.3108011671896571]
医用画像のセグメンテーションにおける大きな課題は、ノイズ、低コントラスト、複雑な解剖学的構造の存在に対する関心領域の正確な記述を実現することである。
既存のセグメンテーションモデルは、多粒度情報の統合を無視し、エッジの詳細を保存できないことが多い。
我々は,Multi-Grained Feature Integration Network (MGFI-Net)と呼ばれる新しい画像セマンティックセマンティクスモデルを提案する。
私たちのMGFI-Netは、これらの問題に対処するための2つの専用のモジュールで設計されています。
論文 参考訳(メタデータ) (2025-02-19T15:24:34Z) - MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - CARE: A Large Scale CT Image Dataset and Clinical Applicable Benchmark
Model for Rectal Cancer Segmentation [8.728236864462302]
CT画像の直腸癌セグメンテーションは、タイムリーな臨床診断、放射線治療、経過観察において重要な役割を担っている。
これらの障害は直腸の複雑な解剖学的構造と直腸癌の鑑別診断の困難から生じる。
これらの課題に対処するため,本研究では,正常直腸と癌直腸の両方にピクセルレベルのアノテーションを付加した,新しい大規模直腸癌CT画像データセットCAREを導入する。
また,U-SAMと命名された新しい癌病変セグメンテーションベンチマークモデルを提案する。
このモデルは、迅速な情報を取り入れることで、腹部器官の複雑な解剖学的構造によって引き起こされる課題に対処するように設計されている。
論文 参考訳(メタデータ) (2023-08-16T10:51:27Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Anatomy-guided Multimodal Registration by Learning Segmentation without
Ground Truth: Application to Intraprocedural CBCT/MR Liver Segmentation and
Registration [12.861503169117208]
マルチモーダル画像登録は、診断医療画像と画像誘導介入に多くの応用がある。
周術期獲得診断画像を周術期内環境に登録する能力は、周術期内腫瘍ターゲティングを改善する可能性がある。
対象のモダリティ基礎真理を含まないセグメンテーション学習のためのセグメンテーションネットワーク(APA2Seg-Net)に対する解剖学的保護ドメイン適応を提案する。
論文 参考訳(メタデータ) (2021-04-14T18:07:03Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。