論文の概要: KG-SAM: Injecting Anatomical Knowledge into Segment Anything Models via Conditional Random Fields
- arxiv url: http://arxiv.org/abs/2509.21750v1
- Date: Fri, 26 Sep 2025 01:29:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.113303
- Title: KG-SAM: Injecting Anatomical Knowledge into Segment Anything Models via Conditional Random Fields
- Title(参考訳): KG-SAM:条件付ランダム場を用いた解剖学的知識のセグメンテーションモデルへの注入
- Authors: Yu Li, Da Chang, Xi Xiao,
- Abstract要約: KG-SAMは知識誘導型フレームワークで、解剖学的な事前情報と境界修正と不確実性推定を統合している。
KG-SAMは前立腺のセグメンテーションで平均82.69%のDiceスコアを達成し、腹部のセグメンテーションでかなりの利得をもたらす。
- 参考スコア(独自算出の注目度): 18.265146885423622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While the Segment Anything Model (SAM) has achieved remarkable success in image segmentation, its direct application to medical imaging remains hindered by fundamental challenges, including ambiguous boundaries, insufficient modeling of anatomical relationships, and the absence of uncertainty quantification. To address these limitations, we introduce KG-SAM, a knowledge-guided framework that synergistically integrates anatomical priors with boundary refinement and uncertainty estimation. Specifically, KG-SAM incorporates (i) a medical knowledge graph to encode fine-grained anatomical relationships, (ii) an energy-based Conditional Random Field (CRF) to enforce anatomically consistent predictions, and (iii) an uncertainty-aware fusion module to enhance reliability in high-stakes clinical scenarios. Extensive experiments across multi-center medical datasets demonstrate the effectiveness of our approach: KG-SAM achieves an average Dice score of 82.69% on prostate segmentation and delivers substantial gains in abdominal segmentation, reaching 78.05% on MRI and 79.68% on CT. These results establish KG-SAM as a robust and generalizable framework for advancing medical image segmentation.
- Abstract(参考訳): SAM(Segment Anything Model)は画像セグメンテーションにおいて顕著な成功を収めているが、医用画像への直接的な適用は、曖昧な境界、解剖学的関係の不十分なモデリング、不確実な定量化の欠如など、基本的な課題によって妨げられている。
これらの制約に対処するため,我々は,境界修正と不確実性推定を相乗的に統合する知識誘導フレームワークであるKG-SAMを導入する。
具体的には、KG-SAM が組み込まれている。
一 微粒な解剖学的関係をコードする医用知識グラフ
二 解剖学的に一貫した予測を行うためのエネルギーに基づく条件ランダム場(CRF)
三 高い臨床シナリオにおける信頼性を高めるための不確実性認識融合モジュール。
KG-SAMは前立腺のセグメンテーションで平均82.69%のDiceスコアを獲得し、腹部のセグメンテーションでは78.05%、CTでは79.68%に達する。
これらの結果は,KG-SAMを医用画像のセグメンテーションを進めるための堅牢で汎用的なフレームワークとして確立している。
関連論文リスト
- A Continual Learning-driven Model for Accurate and Generalizable Segmentation of Clinically Comprehensive and Fine-grained Whole-body Anatomies in CT [67.34586036959793]
完全に注釈付きCTデータセットは存在せず、すべての解剖学がトレーニングのために記述されている。
完全解剖を分割できる連続学習駆動CTモデルを提案する。
単体CT分割モデルCL-Netは, 臨床的に包括的に包括的に235個の粒状体解剖の集合を高精度に分割することができる。
論文 参考訳(メタデータ) (2025-03-16T23:55:02Z) - Clinical Utility of Foundation Segmentation Models in Musculoskeletal MRI: Biomarker Fidelity and Predictive Outcomes [0.0]
筋骨格 (MSK) MRI データセットを用いて, 広く用いられている3つのセグメンテーションモデル (SAM, SAM2, MedSAM) を評価した。
本フレームワークは,ゼロショットと微調整の両方のパフォーマンスを評価し,セグメンテーション精度,画像プロトコル間の一般化性,抽出された量的バイオマーカーの信頼性に着目した。
論文 参考訳(メタデータ) (2025-01-23T04:41:20Z) - MedUHIP: Towards Human-In-the-Loop Medical Segmentation [5.520419627866446]
医用画像のセグメンテーションは、固有の不確実性によって特に複雑である。
我々はtextbfuncertainty-aware モデルと textbf Human-in-the-loop 相互作用を統合する新しいアプローチを提案する。
提案手法は,決定論的および不確実性を考慮したモデルよりも優れたセグメンテーション能力を示す。
論文 参考訳(メタデータ) (2024-08-03T01:06:02Z) - TotalSegmentator MRI: Robust Sequence-independent Segmentation of Multiple Anatomic Structures in MRI [59.86827659781022]
nnU-Netモデル(TotalSegmentator)をMRIおよび80原子構造で訓練した。
予測されたセグメンテーションと専門家基準セグメンテーションとの間には,ディススコアが算出され,モデル性能が評価された。
オープンソースで使いやすいモデルは、80構造の自動的で堅牢なセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Zero-shot performance of the Segment Anything Model (SAM) in 2D medical
imaging: A comprehensive evaluation and practical guidelines [0.13854111346209866]
Segment Anything Model (SAM)は、大規模なトレーニングデータセットを使用して、ほぼすべてのオブジェクトをセグメント化する。
この結果から,SAMのゼロショット性能は,現在の最先端技術に匹敵するものであることが判明した。
我々は、一貫して堅牢な結果をもたらしながら、最小限の相互作用を必要とする実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2023-04-28T22:07:24Z) - Inconsistency-aware Uncertainty Estimation for Semi-supervised Medical
Image Segmentation [92.9634065964963]
我々は、不確実性推定と個別の自己学習戦略に基づいて、新しい半教師付きセグメンテーションモデル、すなわち保守的ラディカルネットワーク(CoraNet)を提案する。
現在の技術と比較すると、ColaNetは優れたパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-10-17T08:49:33Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。