論文の概要: Segment Anything for Histopathology
- arxiv url: http://arxiv.org/abs/2502.00408v1
- Date: Sat, 01 Feb 2025 11:59:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:56:58.364910
- Title: Segment Anything for Histopathology
- Title(参考訳): 病理組織学のためのセグメンテーション
- Authors: Titus Griebel, Anwai Archit, Constantin Pape,
- Abstract要約: ビジョンファウンデーションモデル(VFM)は、自動的および対話的セグメンテーションのより堅牢な代替手段を提供する。
本稿では,多種多様なデータセットを用いたSAMのトレーニングに基づく核セグメンテーションのためのVFMであるPathoSAMを紹介する。
私たちのモデルはオープンソースで、データアノテーションの一般的なツールと互換性があります。
- 参考スコア(独自算出の注目度): 2.6579756198224347
- License:
- Abstract: Nucleus segmentation is an important analysis task in digital pathology. However, methods for automatic segmentation often struggle with new data from a different distribution, requiring users to manually annotate nuclei and retrain data-specific models. Vision foundation models (VFMs), such as the Segment Anything Model (SAM), offer a more robust alternative for automatic and interactive segmentation. Despite their success in natural images, a foundation model for nucleus segmentation in histopathology is still missing. Initial efforts to adapt SAM have shown some success, but did not yet introduce a comprehensive model for diverse segmentation tasks. To close this gap, we introduce PathoSAM, a VFM for nucleus segmentation, based on training SAM on a diverse dataset. Our extensive experiments show that it is the new state-of-the-art model for automatic and interactive nucleus instance segmentation in histopathology. We also demonstrate how it can be adapted for other segmentation tasks, including semantic nucleus segmentation. For this task, we show that it yields results better than popular methods, while not yet beating the state-of-the-art, CellViT. Our models are open-source and compatible with popular tools for data annotation. We also provide scripts for whole-slide image segmentation. Our code and models are publicly available at https://github.com/computational-cell-analytics/patho-sam.
- Abstract(参考訳): 核分割はデジタル病理学における重要な解析課題である。
しかし、自動セグメンテーションの手法は、しばしば異なる分布からの新しいデータに悩まされるため、ユーザーは手動で核を注釈付けし、データ固有のモデルを再訓練する必要がある。
SAM(Segment Anything Model)のようなビジョン基礎モデル(VFM)は、自動的で対話的なセグメンテーションのためのより堅牢な代替手段を提供する。
自然画像での成功にもかかわらず、病理組織学における核セグメンテーションの基礎モデルはいまだに欠落している。
SAMの適応に向けた最初の取り組みはいくつかの成功を示しているが、多様なセグメンテーションタスクのための包括的なモデルはまだ導入されていない。
このギャップを埋めるために,多種多様なデータセット上でSAMを訓練し,核セグメンテーションのためのVFMであるPathoSAMを紹介する。
病理組織学における自律的およびインタラクティブな核インスタンス分割のための新しい最先端モデルであることを示す大規模な実験を行った。
また、意味的核分割を含む他のセグメンテーションタスクにどのように適応できるかを示す。
このタスクでは,最新技術であるCellViTをまだ勝ってはいないが,一般的な手法よりも優れた結果が得られることを示す。
私たちのモデルはオープンソースで、データアノテーションの一般的なツールと互換性があります。
また,全スライディング画像セグメント化のためのスクリプトも提供する。
私たちのコードとモデルはhttps://github.com/computational-cell- Analytics/patho-sam.comで公開されています。
関連論文リスト
- Parameter Efficient Fine-Tuning of Segment Anything Model [2.6579756198224347]
Segment Anything Model (SAM) のようなビジョン基盤モデルは、広いセグメンテーション機能を通じてこの問題に対処する。
視覚変換器のためのQLoRAの実装とSAMの資源効率向上のための新しいアプローチを提供する。
論文 参考訳(メタデータ) (2025-02-01T12:39:17Z) - MedicoSAM: Towards foundation models for medical image segmentation [2.6579756198224347]
大規模で多様なデータセット上の様々な微調整戦略を比較することにより、医療画像のセグメンテーションを改善する方法を示す。
対話型セグメンテーションでは,性能が向上することが確認できた。
私たちのベストモデルであるMedicoSAMはhttps://github.com/computational-cell-analytics/medico-sam.comで公開されています。
論文 参考訳(メタデータ) (2025-01-20T20:40:28Z) - Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - Few-Shot Learning for Annotation-Efficient Nucleus Instance Segmentation [50.407071700154674]
少数ショット学習(FSL)の観点から、アノテーション効率の良い核インスタンスセグメンテーションを定式化することを提案する。
我々の研究は、計算病理学の隆盛とともに、多くの完全注釈付きデータセットが一般に公開されていることに動機づけられた。
いくつかの公開データセットに対する大規模な実験は、SGFSISが他のアノテーション効率のよい学習ベースラインより優れていることを示している。
論文 参考訳(メタデータ) (2024-02-26T03:49:18Z) - UniCell: Universal Cell Nucleus Classification via Prompt Learning [76.11864242047074]
ユニバーサル細胞核分類フレームワーク(UniCell)を提案する。
異なるデータセットドメインから対応する病理画像のカテゴリを均一に予測するために、新しいプロンプト学習機構を採用している。
特に,本フレームワークでは,原子核検出と分類のためのエンドツーエンドアーキテクチャを採用し,フレキシブルな予測ヘッドを用いて様々なデータセットを適応する。
論文 参考訳(メタデータ) (2024-02-20T11:50:27Z) - OMG-Seg: Is One Model Good Enough For All Segmentation? [83.17068644513144]
OMG-Segは、タスク固有のクエリと出力を持つトランスフォーマーベースのエンコーダデコーダアーキテクチャである。
OMG-Segは10以上の異なるセグメンテーションタスクをサポートできるが、計算とパラメータのオーバーヘッドを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2024-01-18T18:59:34Z) - Multi-stream Cell Segmentation with Low-level Cues for Multi-modality
Images [66.79688768141814]
我々は,顕微鏡画像のラベル付けを行うセル分類パイプラインを開発した。
次に、分類ラベルに基づいて分類モデルを訓練する。
2種類のセグメンテーションモデルを、丸みを帯びた形状と不規則な形状のセグメンテーションセルに展開する。
論文 参考訳(メタデータ) (2023-10-22T08:11:08Z) - Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - Segment Anything Model (SAM) for Digital Pathology: Assess Zero-shot
Segmentation on Whole Slide Imaging [12.533476185972527]
画像セグメンテーションの基礎モデルとしてセグメンテーションモデル(SAM)がリリースされた。
スライド画像全体(WSI)における代表セグメンテーションタスクにおけるSAMモデルのゼロショットセグメンテーション性能を評価する。
その結果,0ショットSAMモデルは大きな連結オブジェクトに対して顕著なセグメンテーション性能を実現することが示唆された。
論文 参考訳(メタデータ) (2023-04-09T04:06:59Z) - Evolution of Image Segmentation using Deep Convolutional Neural Network:
A Survey [0.0]
我々はCNNに基づくセマンティックとインスタンスセグメンテーションの両方の進化を垣間見る。
我々は、最先端のパン光学セグメンテーションモデルを垣間見せた。
論文 参考訳(メタデータ) (2020-01-13T06:07:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。