論文の概要: Evaluation and improvement of Segment Anything Model for interactive
histopathology image segmentation
- arxiv url: http://arxiv.org/abs/2310.10493v1
- Date: Mon, 16 Oct 2023 15:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 13:22:42.049170
- Title: Evaluation and improvement of Segment Anything Model for interactive
histopathology image segmentation
- Title(参考訳): インタラクティブな病理画像分割のためのセグメンテーションモデルの評価と改善
- Authors: SeungKyu Kim, Hyun-Jic Oh, Seonghui Min and Won-Ki Jeong
- Abstract要約: Segment Anything Model (SAM) は画像セグメンテーションの基礎モデルである。
病理組織学的データを用いて,ゼロショットおよび微調整シナリオにおけるSAMの性能を評価する。
本稿では,SAMのデコーダを改良して,インタラクティブな組織像のセグメンテーションに役立てることを提案する。
- 参考スコア(独自算出の注目度): 3.677055050765245
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the emergence of the Segment Anything Model (SAM) as a foundational
model for image segmentation, its application has been extensively studied
across various domains, including the medical field. However, its potential in
the context of histopathology data, specifically in region segmentation, has
received relatively limited attention. In this paper, we evaluate SAM's
performance in zero-shot and fine-tuned scenarios on histopathology data, with
a focus on interactive segmentation. Additionally, we compare SAM with other
state-of-the-art interactive models to assess its practical potential and
evaluate its generalization capability with domain adaptability. In the
experimental results, SAM exhibits a weakness in segmentation performance
compared to other models while demonstrating relative strengths in terms of
inference time and generalization capability. To improve SAM's limited local
refinement ability and to enhance prompt stability while preserving its core
strengths, we propose a modification of SAM's decoder. The experimental results
suggest that the proposed modification is effective to make SAM useful for
interactive histology image segmentation. The code is available at
\url{https://github.com/hvcl/SAM_Interactive_Histopathology}
- Abstract(参考訳): 画像分割の基礎モデルとしてsegment anything model(sam)が登場したことで、その応用は医療分野を含む様々な領域で広く研究されてきた。
しかし, 病理組織学的データ, 特に地域区分の文脈におけるその潜在性は, 比較的注目されている。
本稿では,組織病理データにおけるゼロショットおよび微調整シナリオにおけるsamの性能を,インタラクティブなセグメンテーションに着目して評価する。
さらに、SAMと他の最先端インタラクティブモデルを比較し、その実用可能性を評価し、その一般化能力とドメイン適応性を評価する。
実験の結果,samは他のモデルと比較してセグメンテーション性能の弱さを示し,推論時間と一般化能力の相対的な強みを示した。
SAMの局所改良能力の向上と,そのコア強度を保ちながら迅速な安定性向上を図るため,SAMデコーダの改良を提案する。
実験結果は,samをインタラクティブな組織学画像分割に役立てるために改良が有効であることを示唆する。
コードは \url{https://github.com/hvcl/sam_interactive_histopathology} で入手できる。
関連論文リスト
- ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - Segment Any Medical Model Extended [39.80956010574076]
我々は,新しいSAMモデルを統合し,より高速な通信プロトコルを採用し,新しいインタラクティブモードに対応し,モデルのサブコンポーネントの微調整を可能にするプラットフォームであるSAMM Extended (SAMME)を紹介した。
これらの機能はSAMのような基礎モデルの可能性を拡大し、画像誘導療法、複合現実インタラクション、ロボットナビゲーション、データ拡張などのアプリケーションに変換することができる。
論文 参考訳(メタデータ) (2024-03-26T21:37:25Z) - Cheap Lunch for Medical Image Segmentation by Fine-tuning SAM on Few
Exemplars [19.725817146049707]
Segment Anything Model (SAM) はスケールアップセグメンテーションモデルの顕著な機能を示した。
しかし, 医療領域における基礎モデルの導入は, 十分なデータのラベル付けが困難で費用がかかるため, 課題となっている。
本稿では,限られた数の例を用いてSAMを微調整するための効率的かつ実用的な手法を提案する。
論文 参考訳(メタデータ) (2023-08-27T15:21:25Z) - SAMedOCT: Adapting Segment Anything Model (SAM) for Retinal OCT [3.2495192768429924]
Segment Anything Model (SAM) は画像セグメンテーションの分野で大きな注目を集めている。
我々は,RETOUCH チャレンジによる大規模な OCT データセット上で,SAM とその適応の包括的評価を行う。
網膜CTスキャンにおいてSAMの有効性は強力なセグメンテーションモデルとして応用されたが,確立された方法には遅れがみられた。
論文 参考訳(メタデータ) (2023-08-18T06:26:22Z) - RefSAM: Efficiently Adapting Segmenting Anything Model for Referring Video Object Segmentation [53.4319652364256]
本稿では,ビデオオブジェクトのセグメンテーションを参照するためのSAMの可能性を探るRefSAMモデルを提案する。
提案手法は,Cross-RValModalを用いることで,モダリティ学習を向上させるためにオリジナルのSAMモデルに適応する。
我々は、言語と視覚の特徴を効果的に調整し、融合させるために、パラメータ効率のチューニング戦略を採用している。
論文 参考訳(メタデータ) (2023-07-03T13:21:58Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。