論文の概要: Enhancing Cell Tracking with a Time-Symmetric Deep Learning Approach
- arxiv url: http://arxiv.org/abs/2308.03887v2
- Date: Mon, 18 Sep 2023 11:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 22:45:53.432458
- Title: Enhancing Cell Tracking with a Time-Symmetric Deep Learning Approach
- Title(参考訳): 時間対称深層学習による細胞追跡の促進
- Authors: Gergely Szab\'o, Paolo Bonaiuti, Andrea Ciliberto, Andr\'as Horv\'ath
- Abstract要約: 本研究では,細胞を時間的近傍から追跡できるという仮定にのみ依存する,新しいディープラーニングに基づく追跡手法を開発した。
提案手法は, 細胞の動きパターンを事前の仮定なしに予測器で完全に学習できるという付加的な利点を有する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The accurate tracking of live cells using video microscopy recordings remains
a challenging task for popular state-of-the-art image processing based object
tracking methods. In recent years, several existing and new applications have
attempted to integrate deep-learning based frameworks for this task, but most
of them still heavily rely on consecutive frame based tracking embedded in
their architecture or other premises that hinder generalized learning. To
address this issue, we aimed to develop a new deep-learning based tracking
method that relies solely on the assumption that cells can be tracked based on
their spatio-temporal neighborhood, without restricting it to consecutive
frames. The proposed method has the additional benefit that the motion patterns
of the cells can be learned completely by the predictor without any prior
assumptions, and it has the potential to handle a large number of video frames
with heavy artifacts. The efficacy of the proposed method is demonstrated
through biologically motivated validation strategies and compared against
multiple state-of-the-art cell tracking methods.
- Abstract(参考訳): ビデオ顕微鏡記録によるライブ細胞の正確な追跡は、一般的な最先端の画像処理に基づくオブジェクト追跡手法では難しい課題である。
近年、いくつかの既存および新しいアプリケーションがディープラーニングベースのフレームワークをこのタスクに統合しようと試みているが、その多くは、アーキテクチャや一般的な学習を妨げる他の前提に埋め込まれた連続的なフレームベースのトラッキングに依存している。
この問題に対処するため,我々は,細胞を連続するフレームに制限することなく,その時空間的近傍に基づいて追跡できるという仮定にのみ依存する,新しいディープラーニングベースの追跡手法の開発を目標とした。
提案手法は,事前の仮定を必要とせず,予測者によってセルの動作パターンを完全に学習できるという付加的な利点があり,大量の映像フレームを重いアーティファクトで処理できる可能性がある。
提案手法の有効性は, 生物学的に動機づけた検証戦略を用いて実証し, 複数の最先端細胞追跡法と比較した。
関連論文リスト
- Cyclic Refiner: Object-Aware Temporal Representation Learning for Multi-View 3D Detection and Tracking [37.186306646752975]
マルチビュー3次元検出・追跡タスクのための統合オブジェクト認識時間学習フレームワークを提案する。
提案モデルでは,異なる設計のベースラインよりも一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2024-07-03T16:10:19Z) - Deep Temporal Sequence Classification and Mathematical Modeling for Cell Tracking in Dense 3D Microscopy Videos of Bacterial Biofilms [18.563062576080704]
そこで我々はDenseTrackという新しいセル追跡アルゴリズムを提案する。
DenseTrackは、ディープラーニングと数学的モデルベースの戦略を統合して、連続するフレーム間の対応を確立する。
固有分解に基づく細胞分裂検出戦略を提案する。
論文 参考訳(メタデータ) (2024-06-27T23:26:57Z) - Trackastra: Transformer-based cell tracking for live-cell microscopy [0.0]
Trackastraは、単純なトランスフォーマーアーキテクチャを使って、細胞同士の相互関連を学習する汎用的な細胞追跡手法である。
我々の追跡手法は、高度に調整された最先端の細胞追跡アルゴリズムに匹敵する性能を示す。
論文 参考訳(メタデータ) (2024-05-24T16:44:22Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Cell Tracking-by-detection using Elliptical Bounding Boxes [0.0]
本研究は,古典的トラッキング・バイ・検出パラダイムに基づく新しいアプローチを提案する。
細胞形状を指向性楕円体として近似し、汎用指向性物体検出器を用いて各フレーム内の細胞を識別する。
提案手法は,最先端技術と競合して検出・追跡できることを示す。
論文 参考訳(メタデータ) (2023-10-07T18:47:17Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Crop-Transform-Paste: Self-Supervised Learning for Visual Tracking [137.26381337333552]
本研究では,十分なトレーニングデータを合成できるCrop-Transform-Paste演算を開発した。
オブジェクトの状態はすべての合成データで知られているので、既存のディープトラッカーは人間のアノテーションなしで日常的に訓練することができる。
論文 参考訳(メタデータ) (2021-06-21T07:40:34Z) - Deep Keypoint-Based Camera Pose Estimation with Geometric Constraints [80.60538408386016]
連続するフレームから相対的なカメラのポーズを推定することは、視覚計測の基本的な問題である。
本稿では,検出,特徴抽出,マッチング,外乱除去のための学習可能なモジュールで構成されるエンドツーエンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-29T21:41:31Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - RetinaTrack: Online Single Stage Joint Detection and Tracking [22.351109024452462]
両タスクがミッションクリティカルな自律運転におけるトラッキング・バイ・検出パラダイムに注目した。
本稿では、一般的な単一ステージのRetinaNetアプローチを改良したRetinaTrackと呼ばれる、概念的にシンプルで効率的な検出と追跡のジョイントモデルを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。