論文の概要: Segment Anything Model (SAM) for Digital Pathology: Assess Zero-shot
Segmentation on Whole Slide Imaging
- arxiv url: http://arxiv.org/abs/2304.04155v1
- Date: Sun, 9 Apr 2023 04:06:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 17:30:09.993647
- Title: Segment Anything Model (SAM) for Digital Pathology: Assess Zero-shot
Segmentation on Whole Slide Imaging
- Title(参考訳): デジタル病理学におけるSegment Anything Model (SAM):全スライド画像におけるゼロショットセグメンテーションの評価
- Authors: Ruining Deng, Can Cui, Quan Liu, Tianyuan Yao, Lucas W. Remedios,
Shunxing Bao, Bennett A. Landman, Lee E. Wheless, Lori A. Coburn, Keith T.
Wilson, Yaohong Wang, Shilin Zhao, Agnes B. Fogo, Haichun Yang, Yucheng Tang,
Yuankai Huo
- Abstract要約: 画像セグメンテーションの基礎モデルとしてセグメンテーションモデル(SAM)がリリースされた。
スライド画像全体(WSI)における代表セグメンテーションタスクにおけるSAMモデルのゼロショットセグメンテーション性能を評価する。
その結果,0ショットSAMモデルは大きな連結オブジェクトに対して顕著なセグメンテーション性能を実現することが示唆された。
- 参考スコア(独自算出の注目度): 12.533476185972527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The segment anything model (SAM) was released as a foundation model for image
segmentation. The promptable segmentation model was trained by over 1 billion
masks on 11M licensed and privacy-respecting images. The model supports
zero-shot image segmentation with various segmentation prompts (e.g., points,
boxes, masks). It makes the SAM attractive for medical image analysis,
especially for digital pathology where the training data are rare. In this
study, we evaluate the zero-shot segmentation performance of SAM model on
representative segmentation tasks on whole slide imaging (WSI), including (1)
tumor segmentation, (2) non-tumor tissue segmentation, (3) cell nuclei
segmentation. Core Results: The results suggest that the zero-shot SAM model
achieves remarkable segmentation performance for large connected objects.
However, it does not consistently achieve satisfying performance for dense
instance object segmentation, even with 20 prompts (clicks/boxes) on each
image. We also summarized the identified limitations for digital pathology: (1)
image resolution, (2) multiple scales, (3) prompt selection, and (4) model
fine-tuning. In the future, the few-shot fine-tuning with images from
downstream pathological segmentation tasks might help the model to achieve
better performance in dense object segmentation.
- Abstract(参考訳): segment anything model (sam) は画像分割の基礎モデルとしてリリースされた。
即席セグメンテーションモデルは、1100万のライセンスとプライバシーを尊重する画像で10億以上のマスクによって訓練された。
このモデルは、様々なセグメンテーションプロンプト(例えば、ポイント、ボックス、マスク)を備えたゼロショット画像セグメンテーションをサポートする。
これはSAMを医用画像解析、特にトレーニングデータが稀なデジタル病理学に魅力的なものにしている。
本研究では,(1)腫瘍の分画,(2)非腫瘍組織分画,(3)細胞核分画を含む全スライディングイメージング(wsi)における代表的な分画タスクにおいて,samモデルのゼロショット分画性能を評価する。
その結果,0ショットSAMモデルは大きな連結オブジェクトに対して顕著なセグメンテーション性能を実現することが示唆された。
しかし、各画像に20のプロンプト(クリック/ボックス)がある場合でも、高密度なインスタンスオブジェクトセグメンテーションの満足度は一貫して達成されない。
また,(1)画像解像度,(2)マルチスケール,(3)プロンプト選択,(4)モデルの微調整という,デジタル病理学の特定限界についても概説した。
将来的には、下流の病理的セグメンテーションタスクの画像による数ショットの微調整により、高密度オブジェクトセグメンテーションにおけるより良いパフォーマンスを実現することができるだろう。
関連論文リスト
- UnSeg: One Universal Unlearnable Example Generator is Enough against All Image Segmentation [64.01742988773745]
未承認のプライベートデータ上での大規模なイメージセグメンテーションモデルのトレーニングに関して、プライバシーに関する懸念が高まっている。
我々は、学習不可能な例の概念を利用して、学習不可能なノイズを原画像に生成し、付加することにより、モデルトレーニングに使用不能な画像を作成する。
6つのメインストリームイメージセグメンテーションタスク、10つの広く使われているデータセット、7つの異なるネットワークアーキテクチャでUnSegの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-13T16:34:46Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - OMG-Seg: Is One Model Good Enough For All Segmentation? [83.17068644513144]
OMG-Segは、タスク固有のクエリと出力を持つトランスフォーマーベースのエンコーダデコーダアーキテクチャである。
OMG-Segは10以上の異なるセグメンテーションタスクをサポートできるが、計算とパラメータのオーバーヘッドを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2024-01-18T18:59:34Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SamDSK: Combining Segment Anything Model with Domain-Specific Knowledge
for Semi-Supervised Learning in Medical Image Segmentation [27.044797468878837]
Segment Anything Model (SAM)は、自然画像に広範囲のオブジェクトを分割する機能を示す。
本稿では、SAMとドメイン固有の知識を組み合わせて、ラベルなし画像の信頼性の高い利用法を提案する。
本研究は,医用画像セグメンテーションのための半教師あり学習の新たな方向性を創出する。
論文 参考訳(メタデータ) (2023-08-26T04:46:10Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - Input Augmentation with SAM: Boosting Medical Image Segmentation with
Segmentation Foundation Model [36.015065439244495]
Segment Anything Model (SAM) はコンピュータビジョンタスクのための汎用セグメンテーションのための大規模モデルである。
SAMは100万枚の画像と10億枚以上のマスクを使って訓練され、自然の風景画像に広範囲のオブジェクトのセグメンテーション結果を生成することができる。
本報告では,SAMは医用画像データに高品質なセグメンテーションを提供していないが,その生成マスク,特徴,安定性スコアは,より優れた医用画像セグメンテーションモデルの構築と訓練に有用であることを示す。
論文 参考訳(メタデータ) (2023-04-22T07:11:53Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z) - Segment Anything [108.16489338211093]
私たちはこれまでで最大のセグメンテーションデータセットを構築し、1100万ライセンスのマスクを10億枚以上使用し、画像のプライバシーを尊重しています。
このモデルは、高速に撮影できるように設計および訓練されており、ゼロショットを新しい画像配信やタスクに転送することができる。
多数のタスクでその能力を評価した結果、ゼロショット性能は印象的であることが判明した。
論文 参考訳(メタデータ) (2023-04-05T17:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。