論文の概要: MedSAM-U: Uncertainty-Guided Auto Multi-Prompt Adaptation for Reliable MedSAM
- arxiv url: http://arxiv.org/abs/2409.00924v1
- Date: Mon, 2 Sep 2024 03:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 08:21:03.077776
- Title: MedSAM-U: Uncertainty-Guided Auto Multi-Prompt Adaptation for Reliable MedSAM
- Title(参考訳): MedSAM-U:信頼性の高いMedSAMのための不確かさ誘導オートマルチプロンプト適応
- Authors: Nan Zhou, Ke Zou, Kai Ren, Mengting Luo, Linchao He, Meng Wang, Yidi Chen, Yi Zhang, Hu Chen, Huazhu Fu,
- Abstract要約: 医用画像セグメンテーションのためのマルチプロンプト入力を自動的に洗練する不確実性誘導フレームワークであるMedSAM-Uを紹介する。
我々は、プロンプトと初期セグメンテーション結果に関連する不確実性を効果的に推定するために、不確実性誘導型マルチプロンプトを用いる。
MedSAMと比較して、5つの異なるモーダルデータセットの実験結果は、提案されたMedSAM-Uが平均的なパフォーマンス改善を1.7%から20.5%に達成していることを示している。
- 参考スコア(独自算出の注目度): 37.63029776390275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Medical Segment Anything Model (MedSAM) has shown remarkable performance in medical image segmentation, drawing significant attention in the field. However, its sensitivity to varying prompt types and locations poses challenges. This paper addresses these challenges by focusing on the development of reliable prompts that enhance MedSAM's accuracy. We introduce MedSAM-U, an uncertainty-guided framework designed to automatically refine multi-prompt inputs for more reliable and precise medical image segmentation. Specifically, we first train a Multi-Prompt Adapter integrated with MedSAM, creating MPA-MedSAM, to adapt to diverse multi-prompt inputs. We then employ uncertainty-guided multi-prompt to effectively estimate the uncertainties associated with the prompts and their initial segmentation results. In particular, a novel uncertainty-guided prompts adaptation technique is then applied automatically to derive reliable prompts and their corresponding segmentation outcomes. We validate MedSAM-U using datasets from multiple modalities to train a universal image segmentation model. Compared to MedSAM, experimental results on five distinct modal datasets demonstrate that the proposed MedSAM-U achieves an average performance improvement of 1.7\% to 20.5\% across uncertainty-guided prompts.
- Abstract(参考訳): 医用セグメンテーションモデル (MedSAM) は, 医用画像のセグメンテーションにおいて顕著な性能を示し, この分野に大きな注目を集めている。
しかし、異なるプロンプトタイプや場所に対する感度が問題となる。
本稿では,MedSAMの精度を高める信頼性の高いプロンプトの開発に焦点を当て,これらの課題に対処する。
我々はMedSAM-Uを導入する。MedSAM-Uは、より信頼性が高く正確な医用画像セグメンテーションのために、マルチプロンプト入力を自動的に洗練するための不確実性誘導フレームワークである。
具体的には、まずMedSAMと統合されたMPA-MedSAMをトレーニングし、多様なMedSAM入力に適応させる。
次に、不確実性誘導型マルチプロンプトを用いて、プロンプトと初期セグメンテーション結果に関する不確実性を効果的に推定する。
特に、新しい不確実性誘導プロンプト適応手法が自動的に適用され、信頼性の高いプロンプトとその対応するセグメンテーション結果が導出される。
複数のモードからのデータセットを用いてMedSAM-Uを検証し、普遍的な画像分割モデルを訓練する。
MedSAMと比較して、5つの異なるモーダルデータセットの実験結果から、提案したMedSAM-Uは、不確実性誘導されたプロンプトで平均1.7\%から20.5\%の性能向上を達成することが示された。
関連論文リスト
- ESP-MedSAM: Efficient Self-Prompting SAM for Universal Domain-Generalized Medical Image Segmentation [18.388979166848962]
Segment Anything Model (SAM)は両方の設定でその可能性を実証している。
ESP-MedSAM という汎用的な領域一般化医療画像分割のための効率的なセルフプロンプトSAM を提案する。
ESP-MedSAMは様々な医用画像のセグメンテーションタスクにおいて最先端の成果を上げている。
論文 参考訳(メタデータ) (2024-07-19T09:32:30Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - Capabilities of Gemini Models in Medicine [100.60391771032887]
医療専門のマルチモーダルモデルであるMed-Geminiを紹介する。
メドジェニーニを14の医療ベンチマークで評価し,その内10に新たな最先端(SoTA)性能を確立した。
我々の結果は、Med-Geminiの可能性を示唆する証拠を提供するが、より厳密な評価は実世界の展開に先立って重要である。
論文 参考訳(メタデータ) (2024-04-29T04:11:28Z) - Unleashing the Potential of SAM for Medical Adaptation via Hierarchical Decoding [15.401507589312702]
本稿では,医療画像の高速微調整のためのSegment Anything Model (SAM) の即時適応であるH-SAMを紹介する。
初期段階では、H-SAMはSAMのオリジナルのデコーダを使用して、より複雑なデコードプロセスの導出として、以前の確率マスクを生成する。
我々のH-SAMは、既存のプロンプトフリーSAMよりも平均Diceが4.78%改善していることを示す。
論文 参考訳(メタデータ) (2024-03-27T05:55:16Z) - Uncertainty-Aware Adapter: Adapting Segment Anything Model (SAM) for Ambiguous Medical Image Segmentation [20.557472889654758]
Segment Anything Model (SAM) は自然画像のセグメンテーションにおいて大きな成功を収めた。
自然画像とは異なり、医療画像の多くの組織や病変はぼやけており、曖昧である可能性がある。
本研究では,不確実性を認識した医療画像のセグメンテーションのためにSAMを効率よく微調整するUncertainty-aware Adapterという新しいモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-16T14:11:54Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - Enhancing the Reliability of Segment Anything Model for Auto-Prompting Medical Image Segmentation with Uncertainty Rectification [19.190346406238444]
本稿では,医用画像の自動セグメント化の信頼性を高めるため,不確かさを補正したSAMフレームワークUR-SAMを提案する。
提案手法では,不確実性評価のためのSAMの一連のインプットプロンプトを得るためのプロンプト拡張モジュールと,推定不確実性の分布をさらに活用してセグメンテーション性能を向上させるための不確実性修正モジュールを組み込んだ。
論文 参考訳(メタデータ) (2023-11-17T13:49:00Z) - SAM-U: Multi-box prompts triggered uncertainty estimation for reliable
SAM in medical image [29.063412868961098]
そこで本研究では, SAM cues に対するマルチボックスプロンプトによる不確実性評価を行い, セグメント状病変や組織に対する信頼性を実証する。
実験の結果,マルチボックスによりSAM性能が向上し,各画素に不確かさが認められた。
論文 参考訳(メタデータ) (2023-07-11T02:27:45Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。