論文の概要: Temporally-Extended Prompts Optimization for SAM in Interactive Medical
Image Segmentation
- arxiv url: http://arxiv.org/abs/2306.08958v1
- Date: Thu, 15 Jun 2023 08:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:44:02.411089
- Title: Temporally-Extended Prompts Optimization for SAM in Interactive Medical
Image Segmentation
- Title(参考訳): 対話型医用画像分割におけるSAMの時間拡張プロンプト最適化
- Authors: Chuyun Shen, Wenhao Li, Ya Zhang, Xiangfeng Wang
- Abstract要約: Anything Model (SAM) は画像セグメンテーションに対処するための基礎モデルとして登場した。
本稿では,対話型医用画像セグメンテーション(IMIS)パラダイムにおけるSAMのゼロショット機能の可能性を評価することに焦点を当てる。
我々は、人間の専門家に適切なプロンプトフォームを提供するフレームワークを開発する。
- 参考スコア(独自算出の注目度): 22.242652304004068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Segmentation Anything Model (SAM) has recently emerged as a foundation
model for addressing image segmentation. Owing to the intrinsic complexity of
medical images and the high annotation cost, the medical image segmentation
(MIS) community has been encouraged to investigate SAM's zero-shot capabilities
to facilitate automatic annotation. Inspired by the extraordinary
accomplishments of interactive medical image segmentation (IMIS) paradigm, this
paper focuses on assessing the potential of SAM's zero-shot capabilities within
the IMIS paradigm to amplify its benefits in the MIS domain. Regrettably, we
observe that SAM's vulnerability to prompt forms (e.g., points, bounding boxes)
becomes notably pronounced in IMIS. This leads us to develop a framework that
adaptively offers suitable prompt forms for human experts. We refer to the
framework above as temporally-extended prompts optimization (TEPO) and model it
as a Markov decision process, solvable through reinforcement learning.
Numerical experiments on the standardized benchmark BraTS2020 demonstrate that
the learned TEPO agent can further enhance SAM's zero-shot capability in the
MIS context.
- Abstract(参考訳): Segmentation Anything Model (SAM)は画像セグメンテーションに対処するための基礎モデルとして最近登場した。
医用画像の本質的な複雑さと高アノテーションコストのため、医療画像セグメンテーション(MIS)コミュニティはSAMのゼロショット能力を調査し、自動アノテーションを促進するよう奨励されている。
対話型医用画像セグメンテーション(IMIS)パラダイムの卓越した成果に触発された本論文は,MIS領域におけるSAMのゼロショット機能の可能性を評価することに焦点を当てた。
IMISでは、SAMがフォーム(例えば点、境界ボックス)をプロンプトする脆弱性が顕著に発音される。
これにより、人間の専門家に適切なプロンプトフォームを提供するフレームワークを開発することができる。
上記のフレームワークを時間拡張プロンプト最適化(tepo)と呼び,強化学習によって解決可能なマルコフ決定プロセスとしてモデル化する。
標準化されたベンチマークBraTS2020の数値実験では、学習されたTEPOエージェントがMISコンテキストにおけるSAMのゼロショット能力をさらに強化できることが示されている。
関連論文リスト
- Unleashing the Potential of the Diffusion Model in Few-shot Semantic Segmentation [56.87049651707208]
セマンティックはインコンテクストタスクへと発展し、一般化的セグメンテーションモデルを評価する上で重要な要素となった。
我々の最初の焦点は、クエリイメージとサポートイメージの相互作用を容易にする方法を理解することであり、その結果、自己注意フレームワーク内のKV融合法が提案される。
そこで我々はDiffewSというシンプルで効果的なフレームワークを構築し,従来の潜在拡散モデルの生成フレームワークを最大限に保持する。
論文 参考訳(メタデータ) (2024-10-03T10:33:49Z) - CC-SAM: SAM with Cross-feature Attention and Context for Ultrasound Image Segmentation [20.448864959103858]
Segment Anything Model (SAM) は、自然画像のセグメンテーションの領域で顕著な成功を収めた。
SAMは、低コントラスト、かすかな境界、複雑な形態、そして小さなサイズの物体を特徴とする医療画像に苦しむ。
医療領域におけるSAMの性能を高めるために,包括的修正を導入する。
論文 参考訳(メタデータ) (2024-07-31T22:24:05Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - Segment Any Medical Model Extended [39.80956010574076]
我々は,新しいSAMモデルを統合し,より高速な通信プロトコルを採用し,新しいインタラクティブモードに対応し,モデルのサブコンポーネントの微調整を可能にするプラットフォームであるSAMM Extended (SAMME)を紹介した。
これらの機能はSAMのような基礎モデルの可能性を拡大し、画像誘導療法、複合現実インタラクション、ロボットナビゲーション、データ拡張などのアプリケーションに変換することができる。
論文 参考訳(メタデータ) (2024-03-26T21:37:25Z) - ProMISe: Promptable Medical Image Segmentation using SAM [11.710367186709432]
ターゲット領域にユークリッド適応プロンプトを付加したSAMベースの基盤モデルを提供する自動プロンプトモジュール(APM)を提案する。
また、SAMを特定の医療領域に適応させるために、Incrmental Pattern Shifting (IPS) と呼ばれる新しい非侵襲的手法を提案する。
これら2つの手法を結合することにより,プロンプタブル・メディカルイメージのためのエンドツーエンドな非微調整フレームワークであるProMISeを提案する。
論文 参考訳(メタデータ) (2024-03-07T02:48:42Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.42565443181017]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - Self-guided Few-shot Semantic Segmentation for Remote Sensing Imagery
Based on Large Vision Models [14.292149307183967]
本研究は,少数ショットセマンティックセグメンテーションの自動化を目的とした構造化フレームワークを提案する。
SAMモデルを利用して、意味的に識別可能なセグメンテーションの結果をより効率的に生成する。
提案手法の中心は,従来のガイドマスクを利用してSAMの粗い画素単位のプロンプトを生成する,新しい自動プロンプト学習手法である。
論文 参考訳(メタデータ) (2023-11-22T07:07:55Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。