論文の概要: Revisiting foundation models for cell instance segmentation
- arxiv url: http://arxiv.org/abs/2603.17845v1
- Date: Wed, 18 Mar 2026 15:34:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.800863
- Title: Revisiting foundation models for cell instance segmentation
- Title(参考訳): セルインスタンスセグメンテーションのための基礎モデルの再検討
- Authors: Anwai Archit, Constantin Pape,
- Abstract要約: 細胞分画モデル (CellPoseSAM, CellSAM, $$SAM) と汎用分画モデル (SAM, SAM2, SAM3) に関する基礎モデルを, 多様な顕微鏡的データセットを用いて評価した。
我々は,SAMベースの顕微鏡基礎モデルを改善するために,自動プロンプト生成(APG)と呼ばれる新しいインスタンスセグメンテーション戦略を導入する。
我々の研究はSAM型モデルから顕微鏡への適応戦略の重要な教訓を提供し、さらに強力な顕微鏡基礎モデルを作成するための戦略を提供する。
- 参考スコア(独自算出の注目度): 1.514139641301594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cell segmentation is a fundamental task in microscopy image analysis. Several foundation models for cell segmentation have been introduced, virtually all of them are extensions of Segment Anything Model (SAM), improving it for microscopy data. Recently, SAM2 and SAM3 have been published, further improving and extending the capabilities of general-purpose segmentation foundation models. Here, we comprehensively evaluate foundation models for cell segmentation (CellPoseSAM, CellSAM, $μ$SAM) and for general-purpose segmentation (SAM, SAM2, SAM3) on a diverse set of (light) microscopy datasets, for tasks including cell, nucleus and organoid segmentation. Furthermore, we introduce a new instance segmentation strategy called automatic prompt generation (APG) that can be used to further improve SAM-based microscopy foundation models. APG consistently improves segmentation results for $μ$SAM, which is used as the base model, and is competitive with the state-of-the-art model CellPoseSAM. Moreover, our work provides important lessons for adaptation strategies of SAM-style models to microscopy and provides a strategy for creating even more powerful microscopy foundation models. Our code is publicly available at https://github.com/computational-cell-analytics/micro-sam.
- Abstract(参考訳): 細胞セグメンテーションは顕微鏡画像解析における基本的な課題である。
セルセグメンテーションの基礎モデルがいくつか導入されており、ほとんど全てがSAMの拡張であり、顕微鏡データのために改善されている。
近年、SAM2とSAM3が公開され、汎用セグメンテーション基盤モデルのさらなる改良と拡張がなされている。
そこで我々は,細胞分割のための基礎モデル (CellPoseSAM, CellSAM, $μ$SAM) と汎用セグメンテーション (SAM, SAM2, SAM3) を,細胞,核,オルガノイドセグメンテーションなどのタスクのための多種多様なマイクロスコープデータセット上で総合的に評価した。
さらに、SAMベースの顕微鏡基礎モデルを改善するために、自動プロンプト生成(APG)と呼ばれる新しいインスタンスセグメンテーション戦略を導入する。
APGは、ベースモデルとして使用される$μ$SAMのセグメンテーション結果を一貫して改善し、最先端モデルであるCellPoseSAMと競合する。
さらに,本研究はSAM型モデルから顕微鏡への適応戦略の重要な教訓を提供し,さらに強力な顕微鏡基礎モデルを作成するための戦略を提供する。
私たちのコードはhttps://github.com/computational-cell-analytics/micro-sam.comで公開されています。
関連論文リスト
- Fine-grained Multi-class Nuclei Segmentation with Molecular-empowered All-in-SAM Model [15.622506758735476]
分子動力学を用いたオールイン・SAMモデルを提案する。
本モデルでは,(1)分子動力学によるレイアノテータのアノテーション適用による,詳細なピクセルレベルのアノテーションの必要性の低減,(2)特定の意味論を強調するSAMモデルを学習適応化することに焦点を当てた,フルスタックのアプローチを取り入れた。
論文 参考訳(メタデータ) (2025-08-21T17:49:21Z) - Segment Anything for Histopathology [2.6579756198224347]
ビジョンファウンデーションモデル(VFM)は、自動的および対話的セグメンテーションのより堅牢な代替手段を提供する。
本稿では,多種多様なデータセットを用いたSAMのトレーニングに基づく核セグメンテーションのためのVFMであるPathoSAMを紹介する。
私たちのモデルはオープンソースで、データアノテーションの一般的なツールと互換性があります。
論文 参考訳(メタデータ) (2025-02-01T11:59:04Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Moving Object Segmentation: All You Need Is SAM (and Flow) [82.78026782967959]
SAMのセグメンテーション能力と移動物体の発見・グループ化能力を利用する光フローとSAMを組み合わせた2つのモデルについて検討する。
第1のモデルでは、RGBではなく光の流れを入力としてSAMに適応させ、第2のモデルではRGBを入力として、フローをセグメント化プロンプトとして使用する。
これらの驚くほど単純な方法は、追加の修正なしに、シングルオブジェクトとマルチオブジェクトのベンチマークにおいて、以前のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2024-04-18T17:59:53Z) - Mixed Models with Multiple Instance Learning [51.440557223100164]
一般化線形混合モデル(GLMM)とMultiple Instance Learning(MIL)を統合するフレームワークであるMixMILを紹介する。
実験結果から,MixMILは単一セルデータセットにおいて既存のMILモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-04T16:42:42Z) - Multi-stream Cell Segmentation with Low-level Cues for Multi-modality
Images [66.79688768141814]
我々は,顕微鏡画像のラベル付けを行うセル分類パイプラインを開発した。
次に、分類ラベルに基づいて分類モデルを訓練する。
2種類のセグメンテーションモデルを、丸みを帯びた形状と不規則な形状のセグメンテーションセルに展開する。
論文 参考訳(メタデータ) (2023-10-22T08:11:08Z) - nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance [12.169801149021566]
Segment Anything Model (SAM)は、特定のドメイントレーニングなしで画像セグメンテーションのための汎用ツールとして登場した。
nnUNetのような従来のモデルは推論中に自動セグメンテーションを実行するが、広範なドメイン固有のトレーニングが必要である。
提案するnnSAMは,SAMの頑健な特徴抽出とnnUNetの自動構成を統合し,小さなデータセットのセグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2023-09-29T04:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。