論文の概要: DistNet: Deep Tracking by displacement regression: application to
bacteria growing in the Mother Machine
- arxiv url: http://arxiv.org/abs/2003.07790v2
- Date: Sat, 19 Sep 2020 10:12:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 21:03:00.141845
- Title: DistNet: Deep Tracking by displacement regression: application to
bacteria growing in the Mother Machine
- Title(参考訳): DistNet: 変位回帰による深部追跡--マザーマシンの細菌育成への応用
- Authors: Jean Ollion and Charles Ollion
- Abstract要約: 本稿では,トラッキングエラー率とセグメンテーションエラー率を極端に低くする自己認識機構を活用するディープニューラルネットワークアーキテクチャを提案する。
本手法はDISTance+DISplacement and Tracking Networkの略であるDiSTNetと名付けられた。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The mother machine is a popular microfluidic device that allows long-term
time-lapse imaging of thousands of cells in parallel by microscopy. It has
become a valuable tool for single-cell level quantitative analysis and
characterization of many cellular processes such as gene expression and
regulation, mutagenesis or response to antibiotics. The automated and
quantitative analysis of the massive amount of data generated by such
experiments is now the limiting step. In particular the segmentation and
tracking of bacteria cells imaged in phase-contrast microscopy---with error
rates compatible with high-throughput data---is a challenging problem.
In this work, we describe a novel formulation of the multi-object tracking
problem, in which tracking is performed by a regression of the bacteria's
displacement, allowing simultaneous tracking of multiple bacteria, despite
their growth and division over time. Our method performs jointly segmentation
and tracking, leveraging sequential information to increase segmentation
accuracy.
We introduce a Deep Neural Network architecture taking advantage of a
self-attention mechanism which yields extremely low tracking error rate and
segmentation error rate. We demonstrate superior performance and speed compared
to state-of-the-art methods. Our method is named DiSTNet which stands for
DISTance+DISplacement Segmentation and Tracking Network.
While this method is particularly well suited for mother machine microscopy
data, its general joint tracking and segmentation formulation could be applied
to many other problems with different geometries.
- Abstract(参考訳): このマザーマシンは、顕微鏡で数千の細胞を長時間のタイムラプスで観察できる人気のマイクロ流体装置だ。
単細胞レベルでの定量的解析や、遺伝子発現や調節、変異原性、抗生物質に対する反応など多くの細胞過程のキャラクタリゼーションに有用である。
このような実験によって生成される膨大なデータの自動的かつ定量的な分析は、今や限界段階である。
特に、位相コントラスト顕微鏡で撮像された細菌細胞のセグメンテーションと追跡は、高スループットデータと互換性のあるエラー率で、難しい問題である。
本研究では, 細菌の移動の回帰によってトラッキングを行うマルチオブジェクト追跡問題の新規な定式化について述べる。
本手法はセグメント化と追跡を共同で行い,シーケンシャルな情報を利用してセグメント化精度を向上させる。
本稿では,トラッキングエラー率とセグメンテーションエラー率を極端に低くする自己認識機構を活用するディープニューラルネットワークアーキテクチャを提案する。
我々は最先端の手法と比較して優れた性能と速度を示す。
本手法は距離+変位セグメンテーションおよび追跡ネットワークを表す distnet と呼ばれる。
この手法はマザーマシンの顕微鏡データに特に適しているが、その一般的なジョイントトラッキングとセグメンテーションの定式化は、異なるジオメトリを持つ他の多くの問題に適用できる。
関連論文リスト
- Cell as Point: One-Stage Framework for Efficient Cell Tracking [54.19259129722988]
本稿では,一段階の効率的なセルトラッキングを実現するために,新しいエンドツーエンドCAPフレームワークを提案する。
CAPは検出またはセグメンテーション段階を放棄し、細胞点の軌跡間の相関を利用して細胞を共同で追跡することでプロセスを単純化する。
Capは強力なセルトラッキング性能を示し、既存の方法の10倍から55倍の効率を示している。
論文 参考訳(メタデータ) (2024-11-22T10:16:35Z) - Graph Neural Networks with Trainable Adjacency Matrices for Fault
Diagnosis on Multivariate Sensor Data [69.25738064847175]
各センサの信号の挙動を別々に検討し,相互の相関関係と隠れ関係を考慮する必要がある。
グラフノードは、異なるセンサーからのデータとして表現することができ、エッジは、これらのデータの影響を互いに表示することができる。
グラフニューラルネットワークのトレーニング中にグラフを構築する方法が提案されている。これにより、センサー間の依存関係が事前に分かっていないデータ上でモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-10-20T11:03:21Z) - A biology-driven deep generative model for cell-type annotation in
cytometry [0.0]
Scyanはシングルセルサイトメトリーネットワークで,事前知識のみを用いて細胞タイプを自動的にアノテートする。
Scyanは、複数の公開データセット上の関連する最先端モデルよりも高速で解釈可能である。
さらに、Scyanはバッチ効果除去、デバーコーディング、人口発見など、いくつかの補完的なタスクを克服している。
論文 参考訳(メタデータ) (2022-08-11T10:50:44Z) - Search for temporal cell segmentation robustness in phase-contrast
microscopy videos [31.92922565397439]
本研究では,3次元コラーゲンマトリックスに埋め込まれた癌細胞を分画する深層学習ワークフローを提案する。
また, 癌細胞形態を研究するための幾何学的特徴付け手法を提案する。
2Dセルのセグメンテーションと追跡のための新しいアノテーション付きデータセットと、実験を再現したり、新しい画像処理問題に適応するためのオープンソース実装を導入する。
論文 参考訳(メタデータ) (2021-12-16T12:03:28Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Deep neural networks approach to microbial colony detection -- a
comparative analysis [52.77024349608834]
本稿では,AGARデータセットを用いた3つの深層学習手法の性能について検討する。
得られた結果は将来の実験のベンチマークとして機能するかもしれない。
論文 参考訳(メタデータ) (2021-08-23T12:06:00Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - Learning to segment clustered amoeboid cells from brightfield microscopy
via multi-task learning with adaptive weight selection [6.836162272841265]
マルチタスク学習パラダイムにおけるセルセグメンテーションのための新しい教師付き手法を提案する。
ネットワークの予測効率を向上させるために、領域とセル境界検出に基づくマルチタスク損失の組み合わせを用いる。
検証セットで全体のDiceスコアが0.93であり、これは最近の教師なし手法で15.9%以上の改善であり、一般的な教師付きU-netアルゴリズムを平均5.8%以上上回っている。
論文 参考訳(メタデータ) (2020-05-19T11:31:53Z) - Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy [0.20999222360659608]
顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-03T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。