論文の概要: Cell tracking for live-cell microscopy using an activity-prioritized
assignment strategy
- arxiv url: http://arxiv.org/abs/2210.11441v1
- Date: Thu, 20 Oct 2022 17:40:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 15:17:00.823224
- Title: Cell tracking for live-cell microscopy using an activity-prioritized
assignment strategy
- Title(参考訳): 活性優先割当戦略を用いた生体顕微鏡のための細胞追跡
- Authors: Karina Ruzaeva, Jan-Christopher Cohrs, Keitaro Kasahara, Dietrich
Kohlheyer, Katharina N\"oh, Benjamin Berkels
- Abstract要約: 細胞追跡は、分裂パターンや伸長率などの単一細胞の特徴を決定するために、ライブセルイメージングにおいて必須のツールである。
微生物のライブ細胞実験では、細胞は時間とともに成長し、移動し、分裂し、単層構造に密に詰め込まれた細胞コロニーを形成する。
そこで本研究では, 成長する細胞に近接する活性優先の細胞追跡手法と, 母細胞の分裂を娘に割り当てる解法とから, 高速優先の細胞追跡手法を提案する。
- 参考スコア(独自算出の注目度): 0.9134244356393666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cell tracking is an essential tool in live-cell imaging to determine
single-cell features, such as division patterns or elongation rates. Unlike in
common multiple object tracking, in microbial live-cell experiments cells are
growing, moving, and dividing over time, to form cell colonies that are densely
packed in mono-layer structures. With increasing cell numbers, following the
precise cell-cell associations correctly over many generations becomes more and
more challenging, due to the massively increasing number of possible
associations.
To tackle this challenge, we propose a fast parameter-free cell tracking
approach, which consists of activity-prioritized nearest neighbor assignment of
growing cells and a combinatorial solver that assigns splitting mother cells to
their daughters. As input for the tracking, Omnipose is utilized for instance
segmentation. Unlike conventional nearest-neighbor-based tracking approaches,
the assignment steps of our proposed method are based on a Gaussian
activity-based metric, predicting the cell-specific migration probability,
thereby limiting the number of erroneous assignments. In addition to being a
building block for cell tracking, the proposed activity map is a standalone
tracking-free metric for indicating cell activity. Finally, we perform a
quantitative analysis of the tracking accuracy for different frame rates, to
inform life scientists about a suitable (in terms of tracking performance)
choice of the frame rate for their cultivation experiments, when cell tracks
are the desired key outcome.
- Abstract(参考訳): 細胞追跡は、分裂パターンや伸長率などの単一細胞の特徴を決定するために、ライブセルイメージングにおいて必須のツールである。
一般的な複数の物体追跡とは異なり、微生物のライブ細胞実験細胞は時間とともに成長、移動、分裂し、単層構造に密に詰め込まれた細胞コロニーを形成する。
細胞数が増加するにつれて、多くの世代にわたって正確な細胞結合を正しく追従することがますます困難になる。
この課題に対処するために,成長する細胞に近接する活性優先的な近接配置と,母細胞の分裂を娘に割り当てる組合せ解法からなる高速パラメータフリーな細胞追跡手法を提案する。
トラッキングの入力として、Omniposeはインスタンスセグメンテーションに使用される。
従来のneighbor-based tracking法とは異なり,提案手法の割り当てステップはgaussian activity-based metricに基づいて,細胞特異的なマイグレーション確率を予測し,不正な割り当て数を制限している。
細胞追跡のためのビルディングブロックであるのに加えて、提案したアクティビティマップは、細胞活動を示すためのスタンドアロンのトラッキングフリーメトリックである。
最後に, 異なるフレームレートの追跡精度を定量的に解析し, 細胞追跡が望ましい結果である場合に, 培養実験におけるフレームレートの適切な選択(追跡性能の観点から)をライフサイエンティストに知らせる。
関連論文リスト
- Cell as Point: One-Stage Framework for Efficient Cell Tracking [54.19259129722988]
本稿では,一段階の効率的なセルトラッキングを実現するために,新しいエンドツーエンドCAPフレームワークを提案する。
CAPは検出またはセグメンテーション段階を放棄し、細胞点の軌跡間の相関を利用して細胞を共同で追跡することでプロセスを単純化する。
Capは強力なセルトラッキング性能を示し、既存の方法の10倍から55倍の効率を示している。
論文 参考訳(メタデータ) (2024-11-22T10:16:35Z) - Tracking one-in-a-million: Large-scale benchmark for microbial single-cell tracking with experiment-aware robustness metrics [0.0]
我々は、微生物ライブ細胞イメージング(MLCI)のための、最も公開かつ注釈付きデータセットを提示する。
このデータセットには、140万以上の細胞インスタンス、29万の細胞トラック、14万の細胞分裂が含まれている。
我々の新しいベンチマークは、実験パラメータが追跡品質に与える影響を定量化し、新しいデータ駆動手法を開発する機会を与える。
論文 参考訳(メタデータ) (2024-11-01T13:03:51Z) - Trackastra: Transformer-based cell tracking for live-cell microscopy [0.0]
Trackastraは、単純なトランスフォーマーアーキテクチャを使って、細胞同士の相互関連を学習する汎用的な細胞追跡手法である。
我々の追跡手法は、高度に調整された最先端の細胞追跡アルゴリズムに匹敵する性能を示す。
論文 参考訳(メタデータ) (2024-05-24T16:44:22Z) - Single-cell Multi-view Clustering via Community Detection with Unknown
Number of Clusters [64.31109141089598]
シングルセルデータに適した,革新的なマルチビュークラスタリング手法である scUNC を導入する。
scUNCは、事前に定義された数のクラスタを必要とせずに、異なるビューからの情報をシームレスに統合する。
3つの異なる単一セルデータセットを用いて,SCUNCの総合評価を行った。
論文 参考訳(メタデータ) (2023-11-28T08:34:58Z) - RigLSTM: Recurrent Independent Grid LSTM for Generalizable Sequence
Learning [75.61681328968714]
本稿では,対象タスクの基盤となるモジュール構造を利用するために,リカレントな独立したGrid LSTM(RigLSTM)を提案する。
本モデルでは, セル選択, 入力特徴選択, 隠れ状態選択, ソフト状態更新を採用し, より優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-11-03T07:40:06Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Split and Expand: An inference-time improvement for Weakly Supervised
Cell Instance Segmentation [71.50526869670716]
本研究では,分割マップのインスタンスへの変換を改善するために,2段階の後処理手順であるSplitとExpandを提案する。
Splitのステップでは,セルの集合をセグメント化マップから個々のセルインスタンスに分割し,セル中心の予測を導出する。
拡張ステップでは、細胞中心予測を用いて、小さな細胞が欠落していることが分かる。
論文 参考訳(メタデータ) (2020-07-21T14:05:09Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Learning to segment clustered amoeboid cells from brightfield microscopy
via multi-task learning with adaptive weight selection [6.836162272841265]
マルチタスク学習パラダイムにおけるセルセグメンテーションのための新しい教師付き手法を提案する。
ネットワークの予測効率を向上させるために、領域とセル境界検出に基づくマルチタスク損失の組み合わせを用いる。
検証セットで全体のDiceスコアが0.93であり、これは最近の教師なし手法で15.9%以上の改善であり、一般的な教師付きU-netアルゴリズムを平均5.8%以上上回っている。
論文 参考訳(メタデータ) (2020-05-19T11:31:53Z) - Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy [0.20999222360659608]
顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-03T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。