論文の概要: Exploring the Zero-Shot Capabilities of the Segment Anything Model (SAM)
in 2D Medical Imaging: A Comprehensive Evaluation and Practical Guideline
- arxiv url: http://arxiv.org/abs/2305.00109v1
- Date: Fri, 28 Apr 2023 22:07:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 17:09:00.945307
- Title: Exploring the Zero-Shot Capabilities of the Segment Anything Model (SAM)
in 2D Medical Imaging: A Comprehensive Evaluation and Practical Guideline
- Title(参考訳): 2次元医用画像におけるSegment Anything Model(SAM)のゼロショット能力の探索 : 総合的評価と実際的ガイドライン
- Authors: Christian Mattjie and Luis Vinicius de Moura and Rafaela Cappelari
Ravazio and Lucas Silveira Kupssinsk\"u and Ot\'avio Parraga and Marcelo
Mussi Delucis and Rodrigo Coelho Barros
- Abstract要約: Segment Anything Model(SAM)は、広大なトレーニングデータセットを活用して、ほぼすべてのオブジェクトをセグメント化する、新たなセグメンテーションモデルである。
本研究では,医療画像におけるSAM 2Dのゼロショット能力を8つの異なるプロンプト戦略を用いて評価した。
その結果、SAMのゼロショット性能は、現在の最先端技術よりも優れており、場合によっては優れていることが示された。
- 参考スコア(独自算出の注目度): 0.13854111346209866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segmentation in medical imaging plays a crucial role in diagnosing,
monitoring, and treating various diseases and conditions. The current landscape
of segmentation in the medical domain is dominated by numerous specialized deep
learning models fine-tuned for each segmentation task and image modality.
Recently, the Segment Anything Model (SAM), a new segmentation model, was
introduced. SAM utilizes the ViT neural architecture and leverages a vast
training dataset to segment almost any object. However, its generalizability to
the medical domain remains unexplored. In this study, we assess the zero-shot
capabilities of SAM 2D in medical imaging using eight different prompt
strategies across six datasets from four imaging modalities: X-ray, ultrasound,
dermatoscopy, and colonoscopy. Our results demonstrate that SAM's zero-shot
performance is comparable and, in certain cases, superior to the current
state-of-the-art. Based on our findings, we propose a practical guideline that
requires minimal interaction and yields robust results in all evaluated
contexts.
- Abstract(参考訳): 画像診断におけるセグメンテーションは、様々な疾患や病態の診断、監視、治療において重要な役割を担っている。
医療領域におけるセグメンテーションの現在の展望は、セグメンテーションタスクとイメージモダリティごとに微調整された多くの専門的なディープラーニングモデルによって支配されている。
近年,新しいセグメンテーションモデルであるSegment Anything Model (SAM)が導入されている。
SAMはViTニューラルアーキテクチャを使用し、膨大なトレーニングデータセットを使用して、ほぼすべてのオブジェクトをセグメントする。
しかし、その医学領域への一般化は未定である。
本研究では,X線,超音波,皮膚内視鏡,大腸内視鏡の4つの画像モダリティから抽出した6つのデータセットに対して,SAM 2Dのゼロショット能力を評価する。
その結果、SAMのゼロショット性能は、現在の最先端技術よりも優れており、場合によっては優れていることが示された。
そこで本研究では,最小限のインタラクションを要し,評価されたすべての文脈で堅牢な結果が得られる実践的ガイドラインを提案する。
関連論文リスト
- MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - Segment anything model for head and neck tumor segmentation with CT, PET
and MRI multi-modality images [0.04924932828166548]
本研究は,最小限の人的プロンプトを必要とすると認識されるセグメンション・アプライシング・モデル(SAM)について検討する。
具体的には,大規模な医用画像を用いたSAMのバージョンであるMedSAMについて検討する。
本研究は,超微調整SAMのセグメンテーション精度が向上し,既に有効なゼロショット結果が得られたことを実証する。
論文 参考訳(メタデータ) (2024-02-27T12:26:45Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。