論文の概要: Unsupervised Learning of Object-Centric Embeddings for Cell Instance
Segmentation in Microscopy Images
- arxiv url: http://arxiv.org/abs/2310.08501v1
- Date: Thu, 12 Oct 2023 16:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 08:33:20.277560
- Title: Unsupervised Learning of Object-Centric Embeddings for Cell Instance
Segmentation in Microscopy Images
- Title(参考訳): 顕微鏡画像におけるセルインスタンスセグメンテーションのための物体中心埋め込みの教師なし学習
- Authors: Steffen Wolf, Manan Lalit, Henry Westmacott, Katie McDole, Jan Funke
- Abstract要約: オブジェクト中心埋め込み(OCE)を導入する。
OCEはイメージパッチを埋め込み、同じオブジェクトから取得したパッチ間のオフセットが保存される。
画像パッチ間の空間オフセットを予測する自己教師型タスクにより,OCEを学習できることを理論的に示す。
- 参考スコア(独自算出の注目度): 3.039768384237206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segmentation of objects in microscopy images is required for many biomedical
applications. We introduce object-centric embeddings (OCEs), which embed image
patches such that the spatial offsets between patches cropped from the same
object are preserved. Those learnt embeddings can be used to delineate
individual objects and thus obtain instance segmentations. Here, we show
theoretically that, under assumptions commonly found in microscopy images, OCEs
can be learnt through a self-supervised task that predicts the spatial offset
between image patches. Together, this forms an unsupervised cell instance
segmentation method which we evaluate on nine diverse large-scale microscopy
datasets. Segmentations obtained with our method lead to substantially improved
results, compared to state-of-the-art baselines on six out of nine datasets,
and perform on par on the remaining three datasets. If ground-truth annotations
are available, our method serves as an excellent starting point for supervised
training, reducing the required amount of ground-truth needed by one order of
magnitude, thus substantially increasing the practical applicability of our
method. Source code is available at https://github.com/funkelab/cellulus.
- Abstract(参考訳): 多くのバイオメディカル応用には、顕微鏡画像中の物体のセグメンテーションが必要である。
我々は,同一オブジェクトから切り出されたパッチ間の空間的オフセットが保存されるように画像パッチを埋め込み,オブジェクト中心埋め込み(oces)を導入する。
これらの学習された埋め込みは個々のオブジェクトを記述し、インスタンスのセグメンテーションを得るのに使うことができる。
ここでは、顕微鏡画像でよく見られる仮定の下で、OCEは画像パッチ間の空間的オフセットを予測する自己監督タスクによって学習可能であることを示す。
そこで本研究では,9種類の大規模顕微鏡データを用いて,教師なしのセルインスタンス分割手法を構築した。
提案手法により得られたセグメンテーションは,9つのデータセットのうち6つの最新技術ベースラインと比較して有意に改善され,残りの3つのデータセットに匹敵する性能を示した。
地中アノテーションが利用可能であれば,本手法は教師あり訓練の出発点として優れ,必要な地中アノテーションの量を1桁削減できるため,本手法の実用的適用性が大幅に向上する。
ソースコードはhttps://github.com/funkelab/cellulusで入手できる。
関連論文リスト
- Microscopy Image Segmentation via Point and Shape Regularized Data
Synthesis [9.47802391546853]
合成学習データを用いた顕微鏡画像セグメンテーションのための統一パイプラインを構築した。
本フレームワークは,濃密なラベルを持つ高精度な顕微鏡画像で訓練されたモデルと同等の結果が得られる。
論文 参考訳(メタデータ) (2023-08-18T22:00:53Z) - Self-supervised dense representation learning for live-cell microscopy
with time arrow prediction [0.0]
生の未ラベルライブセル顕微鏡ビデオから高密度画像表現を学習する自己教師方式を提案する。
得られた高密度表現は、本質的に時間非対称な生物学的過程、例えばピクセルレベルでの細胞分裂を捉えていることを示す。
提案手法は,特に限定的な真理アノテーションが利用できる場合に,教師付き手法よりも優れる。
論文 参考訳(メタデータ) (2023-05-09T14:58:13Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - Fusing Local Similarities for Retrieval-based 3D Orientation Estimation
of Unseen Objects [70.49392581592089]
我々は,モノクロ画像から未確認物体の3次元配向を推定する作業に取り組む。
我々は検索ベースの戦略に従い、ネットワークがオブジェクト固有の特徴を学習するのを防ぐ。
また,LineMOD,LineMOD-Occluded,T-LESSのデータセットを用いた実験により,本手法が従来の手法よりもはるかに優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2022-03-16T08:53:00Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Object-Guided Instance Segmentation With Auxiliary Feature Refinement
for Biological Images [58.914034295184685]
サンプルセグメンテーションは、神経細胞相互作用の研究、植物の表現型化、細胞が薬物治療にどう反応するかを定量的に測定するなど、多くの生物学的応用において非常に重要である。
Boxベースのインスタンスセグメンテーションメソッドは、バウンディングボックスを介してオブジェクトをキャプチャし、各バウンディングボックス領域内で個々のセグメンテーションを実行する。
提案手法は,まずオブジェクトの中心点を検出し,そこから境界ボックスパラメータが予測される。
セグメンテーションブランチは、オブジェクト特徴をガイダンスとして再利用し、同じバウンディングボックス領域内の隣のオブジェクトからターゲットオブジェクトを分離する。
論文 参考訳(メタデータ) (2021-06-14T04:35:36Z) - Robust 3D Cell Segmentation: Extending the View of Cellpose [0.1384477926572109]
3次元画像データのセグメンテーション精度を向上させるためにcellposeアプローチを拡張した。
グラデーションマップの定式化は、堅牢なままで、類似のセグメンテーション精度に達する間、いかに簡略化できるかを示す。
論文 参考訳(メタデータ) (2021-05-03T12:47:41Z) - Sparse Object-level Supervision for Instance Segmentation with Pixel
Embeddings [4.038011160363972]
ほとんどの最先端のインスタンスセグメンテーションメソッドは、密接な注釈付き画像でトレーニングする必要があります。
非空間埋め込みに基づく提案フリーセグメンテーション手法を提案する。
本研究では, 異なる顕微鏡モードにおける2次元および3次元分割問題の解法について検討した。
論文 参考訳(メタデータ) (2021-03-26T16:36:56Z) - Embedding-based Instance Segmentation of Microscopy Images [8.516639438995785]
Nevenらの作品をもとに、エンドツーエンドのトレーニング可能なディープラーニングメソッドである EmbedSeg を紹介します。
彼らのアプローチでは、それぞれのピクセルを任意のインスタンスのcentroidに埋め込むが、embedsegでは、生体オブジェクトの複雑な形状に動機づけられている。
組込み型インスタンスセグメンテーションは,様々な顕微鏡データセットの最先端手法と比較して,競合的な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-01-25T12:06:44Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Learning RGB-D Feature Embeddings for Unseen Object Instance
Segmentation [67.88276573341734]
合成データからRGB-D特徴埋め込みを学習し,オブジェクトのインスタンスセグメンテーションを未確認する手法を提案する。
距離学習損失関数を用いて画素単位の機能埋め込みを学習する。
新たな2段階クラスタリングアルゴリズムにより,セグメンテーションの精度をさらに向上する。
論文 参考訳(メタデータ) (2020-07-30T00:23:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。