論文の概要: Unsupervised Contour Tracking of Live Cells by Mechanical and Cycle
Consistency Losses
- arxiv url: http://arxiv.org/abs/2303.08364v1
- Date: Wed, 15 Mar 2023 04:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:46:16.357972
- Title: Unsupervised Contour Tracking of Live Cells by Mechanical and Cycle
Consistency Losses
- Title(参考訳): 機械的および周期的整合性損失による生体細胞の不監督輪郭追跡
- Authors: Junbong Jang, Kwonmoo Lee and Tae-Kyun Kim
- Abstract要約: 本稿では,ポイント対応の深層学習に基づく細胞輪郭の追跡手法を提案する。
輪郭上の高密度なトラッキングポイントを手動でラベル付けるのは現実的ではない。
2つの生きた細胞データセットから、生きた細胞の輪郭に沿ってスパース追跡ポイントをラベル付けする。
- 参考スコア(独自算出の注目度): 41.91628168687796
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Analyzing the dynamic changes of cellular morphology is important for
understanding the various functions and characteristics of live cells,
including stem cells and metastatic cancer cells. To this end, we need to track
all points on the highly deformable cellular contour in every frame of live
cell video. Local shapes and textures on the contour are not evident, and their
motions are complex, often with expansion and contraction of local contour
features. The prior arts for optical flow or deep point set tracking are
unsuited due to the fluidity of cells, and previous deep contour tracking does
not consider point correspondence. We propose the first deep learning-based
tracking of cellular (or more generally viscoelastic materials) contours with
point correspondence by fusing dense representation between two contours with
cross attention. Since it is impractical to manually label dense tracking
points on the contour, unsupervised learning comprised of the mechanical and
cyclical consistency losses is proposed to train our contour tracker. The
mechanical loss forcing the points to move perpendicular to the contour
effectively helps out. For quantitative evaluation, we labeled sparse tracking
points along the contour of live cells from two live cell datasets taken with
phase contrast and confocal fluorescence microscopes. Our contour tracker
quantitatively outperforms compared methods and produces qualitatively more
favorable results. Our code and data are publicly available at
https://github.com/JunbongJang/contour-tracking/
- Abstract(参考訳): 細胞形態の動的変化を分析することは、幹細胞や転移性癌細胞を含む生体細胞の様々な機能や特性を理解する上で重要である。
この目的のためには、ライブビデオのフレームごとに高度に変形可能な細胞輪郭の全ての点を追跡する必要がある。
輪郭上の局所的な形状やテクスチャは明確ではなく、その動きは複雑であり、しばしば局所輪郭の特徴の伸縮を伴う。
光流や深度集合追跡の先行技術は細胞の流動性のために不適であり、以前の深度輪郭追跡は点対応を考慮していない。
本研究では,交差注意を持つ2つの輪郭間の密接な表現を用いて,セル状(あるいはより一般的に粘弾性材料)輪郭を点対応で追跡する初の深層学習方式を提案する。
輪郭上の高密度なトラッキングポイントを手動でラベル付けするのは現実的ではないため,輪郭トラッカーを訓練するために,機械的および循環的整合性損失からなる教師なし学習を提案する。
点を輪郭に垂直に動かす機械的な損失は効果的に役に立つ。
定量的評価のために,位相コントラストと共焦点蛍光顕微鏡を用いて2つのライブセルデータセットから生細胞の輪郭に沿ってスパーストラッキングポイントをラベル付けした。
輪郭トラッカーは比較手法より定量的に優れ,定性的に有利な結果が得られる。
私たちのコードとデータはhttps://github.com/junbongjang/contour-tracking/で公開されている。
関連論文リスト
- Shape And Structure Preserving Differential Privacy [70.08490462870144]
正方形距離関数の勾配がラプラス機構よりも感度をよりよく制御できることを示す。
また,2乗距離関数の勾配を用いることで,ラプラス機構よりも感度を制御できることを示す。
論文 参考訳(メタデータ) (2022-09-21T18:14:38Z) - Online Deep Clustering with Video Track Consistency [85.8868194550978]
ビデオオブジェクトトラックから視覚的特徴を学習するための教師なしクラスタリングに基づく手法を提案する。
教師なしのクラス非依存でノイズの多いトラックジェネレータを利用すれば、コストと正確なトラックアノテーションに依存するよりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-07T08:11:00Z) - EmbedTrack -- Simultaneous Cell Segmentation and Tracking Through
Learning Offsets and Clustering Bandwidths [0.30458514384586405]
本稿では,単一畳み込みニューラルネットワークである EmbedTrack について述べる。
埋め込みとして、セルピクセルのセル中心へのオフセットと帯域幅が学習される。
我々は,Cell Tracking Challengeの9つの2次元データセットに対して,我々のアプローチをベンチマークした。
論文 参考訳(メタデータ) (2022-04-22T14:04:37Z) - Graph Neural Network for Cell Tracking in Microscopy Videos [0.0]
顕微鏡ビデオにおける細胞追跡のための新しいグラフニューラルネットワーク(GNN)を提案する。
タイムラプスシーケンス全体を直接グラフとしてモデル化することにより,セルトラジェクトリの集合全体を抽出する。
我々は、異なる生体細胞のインスタンスを区別する細胞特徴ベクトルを抽出するために、ディープメトリック学習アルゴリズムを利用する。
論文 参考訳(メタデータ) (2022-02-09T21:21:48Z) - Polygonal Point Set Tracking [50.445151155209246]
本稿では,学習に基づく多角形点集合追跡手法を提案する。
私たちのゴールは、ターゲットの輪郭上の対応する点を追跡することです。
本稿では,部分歪みとテキストマッピングに対する本手法の視覚効果について述べる。
論文 参考訳(メタデータ) (2021-05-30T17:12:36Z) - Self-Point-Flow: Self-Supervised Scene Flow Estimation from Point Clouds
with Optimal Transport and Random Walk [59.87525177207915]
シーンフローを近似する2点雲間の対応性を確立するための自己教師型手法を開発した。
本手法は,自己教師付き学習手法の最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-18T03:12:42Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - CellTrack R-CNN: A Novel End-To-End Deep Neural Network for Cell
Segmentation and Tracking in Microscopy Images [21.747994390120105]
細胞セグメンテーションと細胞追跡を一体化したエンドツーエンドのディープラーニングベースのフレームワークに結合する新しいアプローチを提案します。
本手法はセルセグメンテーションとセル追跡アキュラシーの両方の観点から最先端アルゴリズムを上回る。
論文 参考訳(メタデータ) (2021-02-20T15:55:40Z) - Limitation of Acyclic Oriented Graphs Matching as Cell Tracking Accuracy
Measure when Evaluating Mitosis [7.076682006232971]
aogm(acyclic oriented graphs matching)は、セルトラッキングのデファクト標準評価指標として用いられてきた。
本稿では,シミュレーションデータと実細胞追跡データの両方を用いて,AOGMによるミトーシス評価の限界を示す。
論文 参考訳(メタデータ) (2020-12-22T15:25:47Z) - Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy [0.20999222360659608]
顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-03T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。