論文の概要: CUPre: Cross-domain Unsupervised Pre-training for Few-Shot Cell
Segmentation
- arxiv url: http://arxiv.org/abs/2310.03981v1
- Date: Fri, 6 Oct 2023 02:35:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-10 03:29:17.887017
- Title: CUPre: Cross-domain Unsupervised Pre-training for Few-Shot Cell
Segmentation
- Title(参考訳): CUPre: Few-Shot Cell Segmentationのためのドメイン間教師なし事前トレーニング
- Authors: Weibin Liao and Xuhong Li and Qingzhong Wang and Yanwu Xu and
Zhaozheng Yin and Haoyi Xiong
- Abstract要約: 本研究は,大規模な未ラベルの細胞画像が利用可能であるが,アノテートされたわずかな割合しか存在しない,数発の細胞セグメンテーションのための事前学習モデルの問題点を考察する。
そこで我々は,CUPreと呼ばれるクロスドメイン非教師付き事前トレーニングを提案し,オブジェクト検出機能と共通視覚オブジェクトのインスタンスセグメンテーションを,ラベルなし画像を用いてセルの視覚領域に転送する。
実験により、CUPreは既存の事前学習方法より優れており、数発の細胞セグメンテーションと検出において最高平均精度(AP)を達成できることが示された。
- 参考スコア(独自算出の注目度): 36.52664417716791
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While pre-training on object detection tasks, such as Common Objects in
Contexts (COCO) [1], could significantly boost the performance of cell
segmentation, it still consumes on massive fine-annotated cell images [2] with
bounding boxes, masks, and cell types for every cell in every image, to
fine-tune the pre-trained model. To lower the cost of annotation, this work
considers the problem of pre-training DNN models for few-shot cell
segmentation, where massive unlabeled cell images are available but only a
small proportion is annotated. Hereby, we propose Cross-domain Unsupervised
Pre-training, namely CUPre, transferring the capability of object detection and
instance segmentation for common visual objects (learned from COCO) to the
visual domain of cells using unlabeled images. Given a standard COCO
pre-trained network with backbone, neck, and head modules, CUPre adopts an
alternate multi-task pre-training (AMT2) procedure with two sub-tasks -- in
every iteration of pre-training, AMT2 first trains the backbone with cell
images from multiple cell datasets via unsupervised momentum contrastive
learning (MoCo) [3], and then trains the whole model with vanilla COCO datasets
via instance segmentation. After pre-training, CUPre fine-tunes the whole model
on the cell segmentation task using a few annotated images. We carry out
extensive experiments to evaluate CUPre using LIVECell [2] and BBBC038 [4]
datasets in few-shot instance segmentation settings. The experiment shows that
CUPre can outperform existing pre-training methods, achieving the highest
average precision (AP) for few-shot cell segmentation and detection.
- Abstract(参考訳): Common Objects in Contexts (COCO) [1]のようなオブジェクト検出タスクの事前トレーニングでは、セルセグメンテーションのパフォーマンスが大幅に向上する可能性があるが、すべてのセルのバウンディングボックス、マスク、セルタイプで大量の微調整されたセルイメージ [2] を消費し、事前トレーニングされたモデルを微調整する。
アノテーションのコストを下げるために、大規模な未ラベルの細胞画像が利用可能であるが、少量のアノテートしかできない、数ショットセルセグメンテーションのためのDNNモデルの事前訓練の問題を検討する。
本稿では,非ラベル画像を用いて,共通視覚オブジェクト(coco)のオブジェクト検出とインスタンスセグメンテーションの機能をセルの視覚領域に転送する,クロスドメイン非教師なし事前学習を提案する。
バックボーン、ネック、ヘッドモジュールを備えた標準的なcocoプリトレーニングネットワークが与えられると、cupreは2つのサブタスクを備えた、代替のマルチタスクプリトレーニング(amt2)手順を採用する。 事前トレーニングのイテレーション毎に、amt2はまず、教師なし運動量コントラスト学習(moco)[3]を介して、複数のセルデータセットからセルイメージをトレーニングし、その後、インスタンスセグメンテーションを介してバニラコココデータセットでモデル全体をトレーニングする。
事前トレーニング後、CUPreはいくつかの注釈付き画像を使用して、セルセグメンテーションタスクでモデル全体を微調整する。
我々は,LIVECell [2] と BBBC038 [4] データセットを用いて,CUPreを評価するための大規模な実験を行った。
この実験は、cupreが既存のプリトレーニング法を上回ることができ、わずかなセルのセグメンテーションと検出において最高平均精度(ap)を達成したことを示している。
関連論文リスト
- Cell as Point: One-Stage Framework for Efficient Cell Tracking [54.19259129722988]
本稿では,一段階の効率的なセルトラッキングを実現するために,新しいエンドツーエンドCAPフレームワークを提案する。
CAPは検出またはセグメンテーション段階を放棄し、細胞点の軌跡間の相関を利用して細胞を共同で追跡することでプロセスを単純化する。
Capは強力なセルトラッキング性能を示し、既存の方法の10倍から55倍の効率を示している。
論文 参考訳(メタデータ) (2024-11-22T10:16:35Z) - Multi-stream Cell Segmentation with Low-level Cues for Multi-modality
Images [66.79688768141814]
我々は,顕微鏡画像のラベル付けを行うセル分類パイプラインを開発した。
次に、分類ラベルに基づいて分類モデルを訓練する。
2種類のセグメンテーションモデルを、丸みを帯びた形状と不規則な形状のセグメンテーションセルに展開する。
論文 参考訳(メタデータ) (2023-10-22T08:11:08Z) - Look in Different Views: Multi-Scheme Regression Guided Cell Instance
Segmentation [17.633542802081827]
マルチスキーマ回帰誘導に基づく新しいセルインスタンス分割ネットワークを提案する。
マルチスキーマレグレッションガイダンスにより、ネットワークは異なるビューで各セルを見ることができる。
ベンチマークデータセット、DSB2018、CA2.5、SCISについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-17T05:24:59Z) - Edge-Based Self-Supervision for Semi-Supervised Few-Shot Microscopy
Image Cell Segmentation [16.94384366469512]
本稿では,未ラベル画像の訓練を自己監督するためのエッジマップの予測を提案する。
実験の結果,従来のトレーニングセットの10%など,少数のアノテートされたイメージだけが,完全なアノテートされたデータベースを1~10ショットで処理するのと同じようなパフォーマンスに達するには十分であることがわかった。
論文 参考訳(メタデータ) (2022-08-03T14:35:00Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Classification Beats Regression: Counting of Cells from Greyscale
Microscopic Images based on Annotation-free Training Samples [20.91256120719461]
本研究は、注釈付きトレーニング画像を用いることなく、グレースケールの顕微鏡画像から細胞をカウントする教師あり学習フレームワークを提案する。
我々は、セルカウントタスクを画像分類問題として定式化し、セルカウントをクラスラベルとする。
これらの制約に対処するために,未確認の細胞数に対する画像の合成を行う,単純だが効果的なデータ拡張法を提案する。
論文 参考訳(メタデータ) (2020-10-28T06:19:30Z) - Split and Expand: An inference-time improvement for Weakly Supervised
Cell Instance Segmentation [71.50526869670716]
本研究では,分割マップのインスタンスへの変換を改善するために,2段階の後処理手順であるSplitとExpandを提案する。
Splitのステップでは,セルの集合をセグメント化マップから個々のセルインスタンスに分割し,セル中心の予測を導出する。
拡張ステップでは、細胞中心予測を用いて、小さな細胞が欠落していることが分かる。
論文 参考訳(メタデータ) (2020-07-21T14:05:09Z) - Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy [0.20999222360659608]
顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-03T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。