論文の概要: SAM2-PATH: A better segment anything model for semantic segmentation in digital pathology
- arxiv url: http://arxiv.org/abs/2408.03651v1
- Date: Wed, 7 Aug 2024 09:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 13:24:06.982964
- Title: SAM2-PATH: A better segment anything model for semantic segmentation in digital pathology
- Title(参考訳): SAM2-PATH:デジタル病理における意味的セグメンテーションのためのより良いセグメンテーションモデル
- Authors: Mingya Zhang, Liang Wang, Limei Gu, Zhao Li, Yaohui Wang, Tingshen Ling, Xianping Tao,
- Abstract要約: 病理組織学における最大の事前学習型視覚エンコーダ (UNI) について紹介する。
提案フレームワークであるSAM2-PATHは,デジタル病理学におけるセマンティックセグメンテーションを自律的に行うSAM2の機能を強化する。
実験の結果,KAN分類モジュールとデコーダを微調整した結果,我々のデータセットは公開病理データに対して競合する結果を得た。
- 参考スコア(独自算出の注目度): 13.640968664289646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The semantic segmentation task in pathology plays an indispensable role in assisting physicians in determining the condition of tissue lesions. Foundation models, such as the SAM (Segment Anything Model) and SAM2, exhibit exceptional performance in instance segmentation within everyday natural scenes. SAM-PATH has also achieved impressive results in semantic segmentation within the field of pathology. However, in computational pathology, the models mentioned above still have the following limitations. The pre-trained encoder models suffer from a scarcity of pathology image data; SAM and SAM2 are not suitable for semantic segmentation. In this paper, we have designed a trainable Kolmogorov-Arnold Networks(KAN) classification module within the SAM2 workflow, and we have introduced the largest pretrained vision encoder for histopathology (UNI) to date. Our proposed framework, SAM2-PATH, augments SAM2's capability to perform semantic segmentation in digital pathology autonomously, eliminating the need for human provided input prompts. The experimental results demonstrate that, after fine-tuning the KAN classification module and decoder, Our dataset has achieved competitive results on publicly available pathology data. The code has been open-sourced and can be found at the following address: https://github.com/simzhangbest/SAM2PATH.
- Abstract(参考訳): 病理学における意味的セグメンテーションの課題は、組織病変の病態を決定するために医師を支援するのに欠かせない役割を担っている。
SAM (Segment Anything Model) やSAM2のような基礎モデルは、日常の自然のシーンにおけるインスタンスのセグメンテーションにおいて、例外的なパフォーマンスを示す。
SAM-PATHはまた、病理学の分野におけるセマンティックセグメンテーションにおいて印象的な結果を得た。
しかし、計算病理学では、上記のモデルには以下の制限がある。
事前訓練されたエンコーダモデルは、病理画像データの不足に悩まされており、SAMとSAM2はセマンティックセグメンテーションには適していない。
本稿では,SAM2ワークフロー内にトレーニング可能なKAN分類モジュールを設計し,これまでで最大規模で事前学習された病理組織学用視覚エンコーダ(UNI)を導入した。
提案フレームワークであるSAM2-PATHは,デジタル病理のセマンティックセグメンテーションを自律的に行うSAM2の機能を強化し,人為的な入力プロンプトの必要性を排除した。
実験の結果,KAN分類モジュールとデコーダを微調整した結果,我々のデータセットは公開病理データに対して競合する結果を得た。
コードはオープンソース化され、以下のアドレスで見ることができる。
関連論文リスト
- Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - SEG-SAM: Semantic-Guided SAM for Unified Medical Image Segmentation [13.037264314135033]
本稿ではセマンティックガイドSAM(SEG-SAM)を提案する。
まず、バイナリとセマンティック予測の潜在的な衝突を避けるために、SAMの元々のデコーダとは独立にセマンティック・アウェア・デコーダを導入する。
我々は、大規模言語モデルから医療カテゴリーの重要な特徴を抽出し、テキスト・ツー・ビジョン・セマンティック・モジュールを通じてSEG-SAMに組み込む。
最後に、SEG-SAMの2つのデコーダから予測されたマスク間の重なり合いを促進するために、マスク間空間アライメント戦略を導入する。
論文 参考訳(メタデータ) (2024-12-17T08:29:13Z) - DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - SAM2-UNet: Segment Anything 2 Makes Strong Encoder for Natural and Medical Image Segmentation [51.90445260276897]
我々は,Segment Anything Model 2 (SAM2) がU字型セグメンテーションモデルの強力なエンコーダであることを証明した。
本稿では, SAM2-UNet と呼ばれる, 汎用画像分割のための簡易かつ効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T17:55:38Z) - SAM2-Adapter: Evaluating & Adapting Segment Anything 2 in Downstream Tasks: Camouflage, Shadow, Medical Image Segmentation, and More [16.40994541980171]
本稿では SAM2-Adapter について紹介する。
SAM-Adapterの強みの上に構築され、多様なアプリケーションに対する一般化性と構成性の向上を提供する。
我々は、SAM2-AdapterでSAM2モデルを活用する可能性を示し、研究コミュニティに奨励する。
論文 参考訳(メタデータ) (2024-08-08T16:40:15Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM-Med2D [34.82072231983896]
我々はSAM-Med2Dを医療用2次元画像に適用する最も包括的な研究である。
まず、公開およびプライベートデータセットから約4.6Mの画像と19.7Mマスクを収集し、キュレートします。
元のSAMのエンコーダとデコーダを微調整して、良好な性能のSAM-Med2Dを得る。
論文 参考訳(メタデータ) (2023-08-30T17:59:02Z) - SAM-Path: A Segment Anything Model for Semantic Segmentation in Digital
Pathology [28.62539784951823]
Segment Anything Model (SAM) のような基礎モデルは、最近セグメンテーションタスクで普遍的に使用されるように提案されている。
そこで本研究では,学習可能なクラスプロンプトを導入し,また病理基盤モデルの導入によりさらなる拡張を行うことによって,SAMをセマンティックセマンティックセマンティックセマンティクスに適用する。
我々のフレームワークSAM-Pathは、人間の入力プロンプトを使わずに、デジタル病理のセマンティックセマンティックセグメンテーションを行うSAMの能力を高める。
論文 参考訳(メタデータ) (2023-07-12T20:15:25Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。