論文の概要: A Probabilistic Segment Anything Model for Ambiguity-Aware Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2509.05809v1
- Date: Sat, 06 Sep 2025 19:02:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.724908
- Title: A Probabilistic Segment Anything Model for Ambiguity-Aware Medical Image Segmentation
- Title(参考訳): あいまいさを考慮した医用画像分割のための確率論的セグメンテーションモデル
- Authors: Tyler Ward, Abdullah Imran,
- Abstract要約: 我々はSegment Anything Model(SAM)の確率的拡張である確率的SAMを紹介する。
潜在変数空間を組み込んで変動目的のトレーニングを行うことで,本モデルは多様かつ妥当なセグメンテーションマスクを生成することを学ぶ。
LIDC-IDRI肺結節データセットを用いて確率的SAMを評価し,専門家の不一致に対応する多様なアウトプットを生成する能力を実証した。
- 参考スコア(独自算出の注目度): 0.790660895390689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in promptable segmentation, such as the Segment Anything Model (SAM), have enabled flexible, high-quality mask generation across a wide range of visual domains. However, SAM and similar models remain fundamentally deterministic, producing a single segmentation per object per prompt, and fail to capture the inherent ambiguity present in many real-world tasks. This limitation is particularly troublesome in medical imaging, where multiple plausible segmentations may exist due to annotation uncertainty or inter-expert variability. In this paper, we introduce Probabilistic SAM, a probabilistic extension of SAM that models a distribution over segmentations conditioned on both the input image and prompt. By incorporating a latent variable space and training with a variational objective, our model learns to generate diverse and plausible segmentation masks reflecting the variability in human annotations. The architecture integrates a prior and posterior network into the SAM framework, allowing latent codes to modulate the prompt embeddings during inference. The latent space allows for efficient sampling during inference, enabling uncertainty-aware outputs with minimal overhead. We evaluate Probabilistic SAM on the public LIDC-IDRI lung nodule dataset and demonstrate its ability to produce diverse outputs that align with expert disagreement, outperforming existing probabilistic baselines on uncertainty-aware metrics. Our code is available at: https://github.com/tbwa233/Probabilistic-SAM/.
- Abstract(参考訳): SAM(Segment Anything Model)のようなプロンプト可能なセグメンテーションの最近の進歩は、幅広い視覚領域にわたってフレキシブルで高品質なマスク生成を可能にしている。
しかし、SAMと類似のモデルは、基本的に決定論的であり、プロンプトごとに1つのセグメンテーションを生成し、多くの現実世界のタスクに存在する固有の曖昧さを捉えることができない。
この制限は、診断の不確実性や専門家間のばらつきのため、複数の可視なセグメンテーションが存在する医療画像において特に問題となる。
本稿では、入力画像とプロンプトの両方に条件付きセグメンテーション上の分布をモデル化する、SAMの確率的拡張である確率的SAMを紹介する。
潜在変数空間を組み込んで変動目的のトレーニングを行うことで,人間のアノテーションの多様性を反映した多種多様で妥当なセグメンテーションマスクの生成を学習する。
アーキテクチャは、事前および後続のネットワークをSAMフレームワークに統合し、遅延コードは推論中に即時埋め込みを変調する。
潜在空間は推論中に効率的なサンプリングを可能にし、最小限のオーバーヘッドで不確実性を認識した出力を可能にする。
LIDC-IDRI肺結節データセットを用いて確率的SAMを評価し、専門家の不一致に対応する多様なアウトプットを生成できることを示し、不確実性を考慮した既存の確率的ベースラインを上回った。
私たちのコードは、https://github.com/tbwa233/Probabilistic-SAM/で利用可能です。
関連論文リスト
- ProSAM: Enhancing the Robustness of SAM-based Visual Reference Segmentation with Probabilistic Prompts [15.582637232358177]
ProSAMは、既存のSAMベースのビジュアル参照セグメンテーションアプローチにおいて、我々が特定した安定性の課題に対処する、シンプルだが効果的な方法である。
ProSAMは不安定な領域にあるプロンプトの生成を回避し、より堅牢でないプロンプトによって引き起こされる不安定さを克服する。
私たちのアプローチは、Pascal-5$i$とCOCO-20$i$データセットの最先端メソッドを一貫して超越しています。
論文 参考訳(メタデータ) (2025-06-27T00:50:15Z) - SAMRefiner: Taming Segment Anything Model for Universal Mask Refinement [40.37217744643069]
マスク改善タスクにSAMを適用することで,汎用的で効率的なアプローチを提案する。
具体的には,SAMの多様な入力プロンプトをマイニングするためのマルチプロンプト掘削手法を提案する。
ターゲットデータセット上のジェネリックSAMRefinerのパフォーマンスをさらに向上するため、IoU適応ステップを追加してSAMRefiner++にメソッドを拡張します。
論文 参考訳(メタデータ) (2025-02-10T18:33:15Z) - Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
異常セグメンテーションのための textbfSelf-textbfPerceptinon textbfTuning (textbfSPT) 法を提案する。
SPT法は, 自己描画型チューニング戦略を取り入れ, 異常マスクの初期粗いドラフトを生成し, 精製処理を行う。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - FlowSDF: Flow Matching for Medical Image Segmentation Using Distance Transforms [60.195642571004804]
本稿では,セグメンテーションマスクの暗黙分布を表現するために,画像誘導型条件付きフローマッチングフレームワークであるFlowSDFを紹介する。
本フレームワークは,セグメンテーションマスクの正確なサンプリングと関連する統計指標の計算を可能にする。
論文 参考訳(メタデータ) (2024-05-28T11:47:12Z) - Performance Evaluation of Segment Anything Model with Variational Prompting for Application to Non-Visible Spectrum Imagery [15.748043194987075]
この研究は、X線/赤外線モダリティに関心のあるオブジェクトのセグメンテーションにおけるセグメンション・任意のモデル機能を評価する。
提案手法は,ボックスプロンプトが与えられた場合,SAMはオブジェクトをX線モードで分割できるが,その性能は点プロンプトによって異なる。
このモダリティの低コントラストの性質を考えると、赤外線オブジェクトもポイントプロンプトでセグメント化することが困難である。
論文 参考訳(メタデータ) (2024-04-18T16:04:14Z) - Uncertainty-Aware Adapter: Adapting Segment Anything Model (SAM) for Ambiguous Medical Image Segmentation [20.557472889654758]
Segment Anything Model (SAM) は自然画像のセグメンテーションにおいて大きな成功を収めた。
自然画像とは異なり、医療画像の多くの組織や病変はぼやけており、曖昧である可能性がある。
本研究では,不確実性を認識した医療画像のセグメンテーションのためにSAMを効率よく微調整するUncertainty-aware Adapterという新しいモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-16T14:11:54Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。