論文の概要: Fine-grained Multi-class Nuclei Segmentation with Molecular-empowered All-in-SAM Model
- arxiv url: http://arxiv.org/abs/2508.15751v1
- Date: Thu, 21 Aug 2025 17:49:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.429501
- Title: Fine-grained Multi-class Nuclei Segmentation with Molecular-empowered All-in-SAM Model
- Title(参考訳): All-in-SAMモデルを用いた微細粒度多クラス核分割
- Authors: Xueyuan Li, Can Cui, Ruining Deng, Yucheng Tang, Quan Liu, Tianyuan Yao, Shunxing Bao, Naweed Chowdhury, Haichun Yang, Yuankai Huo,
- Abstract要約: 分子動力学を用いたオールイン・SAMモデルを提案する。
本モデルでは,(1)分子動力学によるレイアノテータのアノテーション適用による,詳細なピクセルレベルのアノテーションの必要性の低減,(2)特定の意味論を強調するSAMモデルを学習適応化することに焦点を当てた,フルスタックのアプローチを取り入れた。
- 参考スコア(独自算出の注目度): 15.622506758735476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Recent developments in computational pathology have been driven by advances in Vision Foundation Models, particularly the Segment Anything Model (SAM). This model facilitates nuclei segmentation through two primary methods: prompt-based zero-shot segmentation and the use of cell-specific SAM models for direct segmentation. These approaches enable effective segmentation across a range of nuclei and cells. However, general vision foundation models often face challenges with fine-grained semantic segmentation, such as identifying specific nuclei subtypes or particular cells. Approach: In this paper, we propose the molecular-empowered All-in-SAM Model to advance computational pathology by leveraging the capabilities of vision foundation models. This model incorporates a full-stack approach, focusing on: (1) annotation-engaging lay annotators through molecular-empowered learning to reduce the need for detailed pixel-level annotations, (2) learning-adapting the SAM model to emphasize specific semantics, which utilizes its strong generalizability with SAM adapter, and (3) refinement-enhancing segmentation accuracy by integrating Molecular-Oriented Corrective Learning (MOCL). Results: Experimental results from both in-house and public datasets show that the All-in-SAM model significantly improves cell classification performance, even when faced with varying annotation quality. Conclusions: Our approach not only reduces the workload for annotators but also extends the accessibility of precise biomedical image analysis to resource-limited settings, thereby advancing medical diagnostics and automating pathology image analysis.
- Abstract(参考訳): 目的:近年の計算病理学の発展は、ビジョン・ファンデーション・モデル、特にセグメンツ・ア・シング・モデル(SAM)の進歩によって推進されている。
このモデルは、プロンプトベースのゼロショットセグメンテーションと、直接セグメンテーションに細胞特異的SAMモデルを使用することにより、核セグメンテーションを促進する。
これらのアプローチは、様々な核と細胞にわたる効果的なセグメンテーションを可能にする。
しかしながら、一般的なビジョン基盤モデルは、特定の核のサブタイプや特定の細胞を識別するなど、微細なセマンティックセグメンテーションの課題に直面していることが多い。
アプローチ:本論文では,視覚基盤モデルの能力を活用して,分子利用のAll-in-SAMモデルを提案する。
本モデルでは,(1) 詳細なピクセルレベルのアノテーションの必要性を低減するために,(1) 分子駆動学習によるレイアノテータを付加し,(2) SAM モデルを特定のセマンティクスに適応させる,(3) SAM アダプタによる強力な一般化性を活用する,(3) 分子指向の補正学習(MOCL)を統合することで,セマンティクスの精度を向上する,という,フルスタックのアプローチを取り入れた。
結果: 社内および公共のデータセットによる実験結果から, All-in-SAMモデルでは, アノテーション品質の異なる場合であっても, 細胞分類性能が著しく向上することが示された。
結論: 提案手法はアノテータの作業負荷を軽減するだけでなく, バイオメディカル画像解析の精度を資源限定の環境に拡張し, 医療診断の進歩と病理画像解析の自動化を図る。
関連論文リスト
- SemiSAM+: Rethinking Semi-Supervised Medical Image Segmentation in the Era of Foundation Models [23.402987690611827]
SemiSAM+は、医療画像セグメンテーションのための限定ラベル付きデータから効率的に学習する基盤モデル駆動SSLフレームワークである。
SemiSAM+は、ジェネラリストモデルとして1つまたは複数のプロンプト可能な基礎モデルと、専門家モデルとして訓練可能なタスク固有のセグメンテーションモデルで構成されている。
2つの公開データセットと1つの社内臨床データセットの実験は、SemiSAM+が大幅なパフォーマンス改善を実現していることを示している。
論文 参考訳(メタデータ) (2025-02-28T05:54:41Z) - Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - UN-SAM: Universal Prompt-Free Segmentation for Generalized Nuclei Images [47.59627416801523]
デジタル病理学において、正確な核分割は、組織の種類、染色プロトコル、イメージング条件の多様性によって、重要な課題である。
我々はUniversal prompt-free SAM framework for Nuclei segmentation (UN-SAM)を提案する。
例外的な性能を持つUN-SAMは、核インスタンスやセマンティックセグメンテーションの最先端、特にゼロショットシナリオにおける一般化能力を上回っている。
論文 参考訳(メタデータ) (2024-02-26T15:35:18Z) - Segment Anything Model-guided Collaborative Learning Network for
Scribble-supervised Polyp Segmentation [45.15517909664628]
ポリープのセグメンテーションは、初期におけるポリープの正確な位置決定に重要な役割を担っている。
診断中の医師によるポリープ画像に対するピクセルワイドアノテーションは、時間と費用の両方がかかる。
本稿では,スクリブル制御ポリプセグメンテーションのためのSAM誘導協調学習ネットワーク(SAM-CLNet)を提案する。
論文 参考訳(メタデータ) (2023-12-01T03:07:13Z) - nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance [12.169801149021566]
Segment Anything Model (SAM)は、特定のドメイントレーニングなしで画像セグメンテーションのための汎用ツールとして登場した。
nnUNetのような従来のモデルは推論中に自動セグメンテーションを実行するが、広範なドメイン固有のトレーニングが必要である。
提案するnnSAMは,SAMの頑健な特徴抽出とnnUNetの自動構成を統合し,小さなデータセットのセグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2023-09-29T04:26:25Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。