論文の概要: SAM-Path: A Segment Anything Model for Semantic Segmentation in Digital
Pathology
- arxiv url: http://arxiv.org/abs/2307.09570v1
- Date: Wed, 12 Jul 2023 20:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-23 11:55:49.684848
- Title: SAM-Path: A Segment Anything Model for Semantic Segmentation in Digital
Pathology
- Title(参考訳): SAM-Path:デジタル病理におけるセマンティックセグメンテーションのためのセグメンテーションモデル
- Authors: Jingwei Zhang, Ke Ma, Saarthak Kapse, Joel Saltz, Maria Vakalopoulou,
Prateek Prasanna, Dimitris Samaras
- Abstract要約: Segment Anything Model (SAM) のような基礎モデルは、最近セグメンテーションタスクで普遍的に使用されるように提案されている。
そこで本研究では,学習可能なクラスプロンプトを導入し,また病理基盤モデルの導入によりさらなる拡張を行うことによって,SAMをセマンティックセマンティックセマンティックセマンティクスに適用する。
我々のフレームワークSAM-Pathは、人間の入力プロンプトを使わずに、デジタル病理のセマンティックセマンティックセグメンテーションを行うSAMの能力を高める。
- 参考スコア(独自算出の注目度): 28.62539784951823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentations of pathological entities have crucial clinical value
in computational pathology workflows. Foundation models, such as the Segment
Anything Model (SAM), have been recently proposed for universal use in
segmentation tasks. SAM shows remarkable promise in instance segmentation on
natural images. However, the applicability of SAM to computational pathology
tasks is limited due to the following factors: (1) lack of comprehensive
pathology datasets used in SAM training and (2) the design of SAM is not
inherently optimized for semantic segmentation tasks. In this work, we adapt
SAM for semantic segmentation by introducing trainable class prompts, followed
by further enhancements through the incorporation of a pathology encoder,
specifically a pathology foundation model. Our framework, SAM-Path enhances
SAM's ability to conduct semantic segmentation in digital pathology without
human input prompts. Through experiments on two public pathology datasets, the
BCSS and the CRAG datasets, we demonstrate that the fine-tuning with trainable
class prompts outperforms vanilla SAM with manual prompts and post-processing
by 27.52% in Dice score and 71.63% in IOU. On these two datasets, the proposed
additional pathology foundation model further achieves a relative improvement
of 5.07% to 5.12% in Dice score and 4.50% to 8.48% in IOU.
- Abstract(参考訳): 病理組織のセマンティックセグメンテーションは、計算病理ワークフローにおいて重要な臨床的価値を持っている。
Segment Anything Model (SAM) のような基礎モデルは、最近セグメンテーションタスクで普遍的に使用されるように提案されている。
samは、自然画像のセグメンテーションの例で注目すべき約束を示している。
しかし, (1) SAMトレーニングで使用される包括的病理データセットの欠如, (2) SAMの設計はセマンティックセグメンテーションタスクに本質的に最適化されていない。
本研究では,学習可能なクラスプロンプトの導入による意味セグメンテーションへのsamの適用と,病理エンコーダ,特に病理基盤モデルの導入によるさらなる拡張について述べる。
我々のフレームワークSAM-Pathは、人間の入力プロンプトを使わずに、デジタル病理のセマンティックセグメンテーションを行うSAMの能力を高める。
BCSSとCRAGの2つの公開病理データセットの実験を通じて、トレーニング可能なクラスによる微調整が、手動によるプロンプトと後処理でバニラSAMを27.52%、IOUが71.63%上回ることを示す。
これら2つのデータセットに基づいて、提案された病理基盤モデルにより、Diceスコアの5.07%から5.12%、IOUの4.50%から8.48%の相対的な改善が達成される。
関連論文リスト
- Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Path-SAM2: Transfer SAM2 for digital pathology semantic segmentation [6.721564277355789]
Path-SAM2はSAM2モデルに初めて適応し,病的セマンティックセグメンテーションの課題に適応する。
病理組織学における最大の事前学習型視覚エンコーダ(UNI)とオリジナルのSAM2エンコーダを統合し,病理学に基づく事前知識を付加する。
3つの腺腫の病理データセットにおいて、Path-SAM2は最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-08-07T09:30:51Z) - SAM-CP: Marrying SAM with Composable Prompts for Versatile Segmentation [88.80792308991867]
Segment Anything Model (SAM)は、イメージピクセルをパッチにグループ化する機能を示しているが、セグメンテーションにそれを適用することは依然として大きな課題に直面している。
本稿では,SAM-CPを提案する。SAM-CPはSAM以外の2種類の構成可能なプロンプトを確立し,多目的セグメンテーションのために構成する単純な手法である。
実験により、SAM-CPはオープンドメインとクローズドドメインの両方においてセマンティック、例、およびパノプティックセグメンテーションを達成することが示された。
論文 参考訳(メタデータ) (2024-07-23T17:47:25Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - Guided Prompting in SAM for Weakly Supervised Cell Segmentation in
Histopathological Images [27.14641973632063]
本稿では、セグメンタを誘導するために、関連するタスクからのアノテーションである弱い監視を使用することに焦点を当てる。
SAM(Segment Anything)のような最近の基礎モデルは、推論中に追加の監視を活用するためにプロンプトを使用することができる。
すべてのSAMベースのソリューションは、既存の弱教師付きイメージセグメンテーションモデルを大幅に上回り、9~15 ptのDiceゲインを得る。
論文 参考訳(メタデータ) (2023-11-29T11:18:48Z) - Evaluation and improvement of Segment Anything Model for interactive
histopathology image segmentation [3.677055050765245]
Segment Anything Model (SAM) は画像セグメンテーションの基礎モデルである。
病理組織学的データを用いて,ゼロショットおよび微調整シナリオにおけるSAMの性能を評価する。
本稿では,SAMのデコーダを改良して,インタラクティブな組織像のセグメンテーションに役立てることを提案する。
論文 参考訳(メタデータ) (2023-10-16T15:17:06Z) - nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance [12.169801149021566]
Segment Anything Model (SAM)は、特定のドメイントレーニングなしで画像セグメンテーションのための汎用ツールとして登場した。
nnUNetのような従来のモデルは推論中に自動セグメンテーションを実行するが、広範なドメイン固有のトレーニングが必要である。
提案するnnSAMは,SAMの頑健な特徴抽出とnnUNetの自動構成を統合し,小さなデータセットのセグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2023-09-29T04:26:25Z) - Cheap Lunch for Medical Image Segmentation by Fine-tuning SAM on Few
Exemplars [19.725817146049707]
Segment Anything Model (SAM) はスケールアップセグメンテーションモデルの顕著な機能を示した。
しかし, 医療領域における基礎モデルの導入は, 十分なデータのラベル付けが困難で費用がかかるため, 課題となっている。
本稿では,限られた数の例を用いてSAMを微調整するための効率的かつ実用的な手法を提案する。
論文 参考訳(メタデータ) (2023-08-27T15:21:25Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。