論文の概要: CellSeg1: Robust Cell Segmentation with One Training Image
- arxiv url: http://arxiv.org/abs/2412.01410v1
- Date: Mon, 02 Dec 2024 11:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:42:37.157166
- Title: CellSeg1: Robust Cell Segmentation with One Training Image
- Title(参考訳): CellSeg1: トレーニングイメージ付きロバストなセルセグメンテーション
- Authors: Peilin Zhou, Bo Du, Yongchao Xu,
- Abstract要約: 任意の形態とモダリティの細胞をセグメント化するためのソリューションであるCellSeg1について,数ダースのセルアノテーションを1イメージで紹介する。
19の多様なセルデータセットでテストされ、CellSeg1は1枚の画像でトレーニングされ、0.5 IoUで平均平均mAP0.81に達し、500枚以上の画像でトレーニングされた既存のモデルと同等に動作した。
- 参考スコア(独自算出の注目度): 37.60000299559688
- License:
- Abstract: Recent trends in cell segmentation have shifted towards universal models to handle diverse cell morphologies and imaging modalities. However, for continuously emerging cell types and imaging techniques, these models still require hundreds or thousands of annotated cells for fine-tuning. We introduce CellSeg1, a practical solution for segmenting cells of arbitrary morphology and modality with a few dozen cell annotations in 1 image. By adopting Low-Rank Adaptation of the Segment Anything Model (SAM), we achieve robust cell segmentation. Tested on 19 diverse cell datasets, CellSeg1 trained on 1 image achieved 0.81 average mAP at 0.5 IoU, performing comparably to existing models trained on over 500 images. It also demonstrated superior generalization in cross-dataset tests on TissueNet. We found that high-quality annotation of a few dozen densely packed cells of varied sizes is key to effective segmentation. CellSeg1 provides an efficient solution for cell segmentation with minimal annotation effort.
- Abstract(参考訳): 近年の細胞セグメンテーションの傾向は、多様な細胞形態や画像のモダリティを扱うために普遍的なモデルに移行している。
しかし、連続的に現れる細胞タイプやイメージング技術のために、これらのモデルは微調整のために数百から数千の注釈付き細胞を必要とする。
CellSeg1は、任意の形態とモダリティを持つ細胞を1つの画像に数ダースの細胞アノテーションで分割する実用的なソリューションである。
SAM(Low-Rank Adaptation of the Segment Anything Model)を採用することで,ロバストなセルセグメンテーションを実現する。
19の多様なセルデータセットでテストされ、CellSeg1は1枚の画像でトレーニングされ、0.5 IoUで平均平均mAP0.81に達し、500枚以上の画像でトレーニングされた既存のモデルと同等に動作した。
tissueNet上でのクロスデータセットテストでも優れた一般化が示された。
様々な大きさの高密度セルの高品質なアノテーションが効果的なセグメンテーションの鍵となることがわかった。
CellSeg1は最小限のアノテーションでセルセグメンテーションの効率的なソリューションを提供する。
関連論文リスト
- SoftCTM: Cell detection by soft instance segmentation and consideration
of cell-tissue interaction [0.0]
そこで本研究では,モデルの性能に及ぼす真実形式の影響について検討する。
細胞間相互作用は組織分節予測を提供することによって考慮される。
確率マップのインスタンスセグメンテーションの根拠となる真実は、最高のモデル性能をもたらす。
論文 参考訳(メタデータ) (2023-12-19T13:33:59Z) - CellMixer: Annotation-free Semantic Cell Segmentation of Heterogeneous
Cell Populations [9.335273591976648]
異種細胞集団のセマンティックセグメンテーションのための革新的なアノテーションのないアプローチであるCellMixerを提案する。
以上の結果から,CellMixerは複数のセルタイプにまたがる競合セグメンテーション性能と画像モダリティを実現することができることがわかった。
論文 参考訳(メタデータ) (2023-12-01T15:50:20Z) - Single-cell Multi-view Clustering via Community Detection with Unknown
Number of Clusters [64.31109141089598]
シングルセルデータに適した,革新的なマルチビュークラスタリング手法である scUNC を導入する。
scUNCは、事前に定義された数のクラスタを必要とせずに、異なるビューからの情報をシームレスに統合する。
3つの異なる単一セルデータセットを用いて,SCUNCの総合評価を行った。
論文 参考訳(メタデータ) (2023-11-28T08:34:58Z) - Mixed Models with Multiple Instance Learning [51.440557223100164]
一般化線形混合モデル(GLMM)とMultiple Instance Learning(MIL)を統合するフレームワークであるMixMILを紹介する。
実験結果から,MixMILは単一セルデータセットにおいて既存のMILモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-04T16:42:42Z) - Multi-stream Cell Segmentation with Low-level Cues for Multi-modality
Images [66.79688768141814]
我々は,顕微鏡画像のラベル付けを行うセル分類パイプラインを開発した。
次に、分類ラベルに基づいて分類モデルを訓練する。
2種類のセグメンテーションモデルを、丸みを帯びた形状と不規則な形状のセグメンテーションセルに展開する。
論文 参考訳(メタデータ) (2023-10-22T08:11:08Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Advanced Multi-Microscopic Views Cell Semi-supervised Segmentation [0.0]
深層学習(DL)は細胞セグメンテーションタスクにおいて強力なポテンシャルを示すが、一般化が不十分である。
本稿では,Multi-Microscopic-view Cell semi-supervised (MMCS) と呼ばれる,新しい半教師付き細胞分割法を提案する。
MMCSは、マイクロスコープの異なる低ラベルの多姿勢細胞画像を用いて、細胞セグメンテーションモデルを訓練することができる。
F1スコアは0.8239であり、全てのケースのランニング時間は許容時間の範囲内である。
論文 参考訳(メタデータ) (2023-03-21T08:08:13Z) - Split and Expand: An inference-time improvement for Weakly Supervised
Cell Instance Segmentation [71.50526869670716]
本研究では,分割マップのインスタンスへの変換を改善するために,2段階の後処理手順であるSplitとExpandを提案する。
Splitのステップでは,セルの集合をセグメント化マップから個々のセルインスタンスに分割し,セル中心の予測を導出する。
拡張ステップでは、細胞中心予測を用いて、小さな細胞が欠落していることが分かる。
論文 参考訳(メタデータ) (2020-07-21T14:05:09Z) - Learning to segment clustered amoeboid cells from brightfield microscopy
via multi-task learning with adaptive weight selection [6.836162272841265]
マルチタスク学習パラダイムにおけるセルセグメンテーションのための新しい教師付き手法を提案する。
ネットワークの予測効率を向上させるために、領域とセル境界検出に基づくマルチタスク損失の組み合わせを用いる。
検証セットで全体のDiceスコアが0.93であり、これは最近の教師なし手法で15.9%以上の改善であり、一般的な教師付きU-netアルゴリズムを平均5.8%以上上回っている。
論文 参考訳(メタデータ) (2020-05-19T11:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。