論文の概要: A Deep Learning Bidirectional Temporal Tracking Algorithm for Automated
Blood Cell Counting from Non-invasive Capillaroscopy Videos
- arxiv url: http://arxiv.org/abs/2011.13371v3
- Date: Mon, 12 Apr 2021 12:47:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 09:15:01.323011
- Title: A Deep Learning Bidirectional Temporal Tracking Algorithm for Automated
Blood Cell Counting from Non-invasive Capillaroscopy Videos
- Title(参考訳): 非侵襲的毛細血管鏡映像からの血球自動計測のためのディープラーニング双方向時間追跡アルゴリズム
- Authors: Luojie Huang, Gregory N. McKay, Nicholas J. Durr
- Abstract要約: CycleTrackは、1000フレームの8つのテストビデオのうち、96.58$pm$2.43%のセルカウントを達成している。
一般的な1分間のビデオで9,600フレームから約8000個の血液細胞を追跡し、数えるのに800秒かかります。
- 参考スコア(独自算出の注目度): 3.8986144940706895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Oblique back-illumination capillaroscopy has recently been introduced as a
method for high-quality, non-invasive blood cell imaging in human capillaries.
To make this technique practical for clinical blood cell counting, solutions
for automatic processing of acquired videos are needed. Here, we take the first
step towards this goal, by introducing a deep learning multi-cell tracking
model, named CycleTrack, which achieves accurate blood cell counting from
capillaroscopic videos. CycleTrack combines two simple online tracking models,
SORT and CenterTrack, and is tailored to features of capillary blood cell flow.
Blood cells are tracked by displacement vectors in two opposing temporal
directions (forward- and backward-tracking) between consecutive frames. This
approach yields accurate tracking despite rapidly moving and deforming blood
cells. The proposed model outperforms other baseline trackers, achieving 65.57%
Multiple Object Tracking Accuracy and 73.95% ID F1 score on test videos.
Compared to manual blood cell counting, CycleTrack achieves 96.58 $\pm$ 2.43%
cell counting accuracy among 8 test videos with 1000 frames each compared to
93.45% and 77.02% accuracy for independent CenterTrack and SORT almost without
additional time expense. It takes 800s to track and count approximately 8000
blood cells from 9,600 frames captured in a typical one-minute video. Moreover,
the blood cell velocity measured by CycleTrack demonstrates a consistent,
pulsatile pattern within the physiological range of heart rate. Lastly, we
discuss future improvements for the CycleTrack framework, which would enable
clinical translation of the oblique back-illumination microscope towards a
real-time and non-invasive point-of-care blood cell counting and analyzing
technology.
- Abstract(参考訳): 近年,ヒト毛細血管における高品質非侵襲的血液細胞イメージング法として,斜め後方照射カピラロスコープが導入された。
この手法を臨床血球計数に活用するには,取得したビデオの自動処理のソリューションが必要である。
そこで本研究では,カピラロスコープビデオから正確な血球計数を実現する,深層学習型多細胞追跡モデルCycleTrackを導入することで,この目標に向けて第一歩を踏み出した。
CycleTrackは、SORTとCenterTrackという2つのシンプルなオンライン追跡モデルを組み合わせて、毛細血管の血流の特徴に合わせている。
血球は、連続するフレーム間の2つの反対の時間方向(前方と後方の追跡)の変位ベクトルによって追跡される。
このアプローチは血液細胞を急速に動かしたり変形させたりしながら正確な追跡を行う。
提案されたモデルは、他のベースライントラッカーを上回り、65.57%の多重オブジェクト追跡精度、73.95%のID F1スコアを記録した。
手動の血球計数と比較すると、CycleTrackは1000フレームの8つのテストビデオのうち96.58ドル\pm$2.43%の精度を93.45%と77.02%の精度で達成している。
1分間のビデオで撮影された9600フレームから約8000個の血球を追跡し数えるのに800秒かかる。
さらに、CycleTrackが測定した血液細胞速度は、生理的心拍数の範囲内で一貫した脈拍動パターンを示す。
最後に, 斜めバックイルミネーション顕微鏡のリアルタイム・非侵襲的血液細胞計数・解析技術への臨床翻訳を可能にするcycletrackフレームワークの今後の改良について述べる。
関連論文リスト
- Cell as Point: One-Stage Framework for Efficient Cell Tracking [54.19259129722988]
本稿では,一段階の効率的なセルトラッキングを実現するために,新しいエンドツーエンドCAPフレームワークを提案する。
CAPは検出またはセグメンテーション段階を放棄し、細胞点の軌跡間の相関を利用して細胞を共同で追跡することでプロセスを単純化する。
Capは強力なセルトラッキング性能を示し、既存の方法の10倍から55倍の効率を示している。
論文 参考訳(メタデータ) (2024-11-22T10:16:35Z) - BloodCell-Net: A lightweight convolutional neural network for the classification of all microscopic blood cell images of the human body [0.0]
血液の分類と測定は、様々な血液関連疾患の診断に不可欠である。
我々は, 血液スミア画像から血液細胞分類と計数を行うためのDLベースの自動システムを提案する。
赤血球,赤血球,好中球,好中球,好酸球,好酸球,リンパ球,単球,未成熟顆粒球,血小板の計9種類の血液細胞を同定した。
論文 参考訳(メタデータ) (2024-04-01T20:38:58Z) - Assessing Upper Limb Motor Function in the Immediate Post-Stroke Perioud
Using Accelerometry [0.6390468088226495]
本研究の目的は、脳卒中患者の上肢運動機能の急激な変化を監視し、迅速に検出するために、加速度計による測定も利用できるかどうかを判断することである。
6つの二分分類モデルが, 頭蓋上肢加速度計の特徴値の変動時間に基づいて作成した。
分類モデルでは、AUC(Area Under the Curve)スコアは15分間のデータウィンドウで0.72から0.82から120分間のデータウィンドウで0.77から0.94まで変化した。
論文 参考訳(メタデータ) (2023-11-01T18:43:20Z) - Classification of All Blood Cell Images using ML and DL Models [7.737213476933511]
ヒトの血液は、主に血漿、赤血球、白血球、血小板から構成される。
栄養素を異なる臓器に輸送する上で重要な役割を担っている。
血液分析は、医師が個人の生理状態を評価するのに役立つ。
論文 参考訳(メタデータ) (2023-08-11T07:57:12Z) - MAPPING: Model Average with Post-processing for Stroke Lesion
Segmentation [57.336056469276585]
我々は nnU-Net フレームワークに基づく脳卒中病変のセグメンテーションモデルを提案し, ストローク後の解剖学的トレースに応用する。
本手法は,2022年のMICCAI ATLAS Challengeにおいて,平均Diceスコアが0.6667,Lesion-wise F1スコアが0.5643,Simple Lesion Countスコアが4.5367,Volume differenceスコアが8804.9102であった。
論文 参考訳(メタデータ) (2022-11-11T14:17:04Z) - Deep CNNs for Peripheral Blood Cell Classification [0.0]
我々は、顕微鏡的末梢血細胞画像データセットに基づいて、27の人気の深層畳み込みニューラルネットワークアーキテクチャをベンチマークした。
血液細胞分類のためのImageNetデータセットに事前トレーニングされた最先端画像分類モデルを微調整する。
論文 参考訳(メタデータ) (2021-10-18T17:56:07Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Transfer Learning of Deep Spatiotemporal Networks to Model Arbitrarily
Long Videos of Seizures [58.720142291102135]
てんかん患者の治療には, てんかんセミノロジーの詳細な分析が重要である。
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせた新しいアーキテクチャであるGESTURESを紹介する。
本稿では,HARデータセットでトレーニングしたSTCNNとRNNを組み合わせて,任意の長さの発作映像を正確に表現できることを示す。
論文 参考訳(メタデータ) (2021-06-22T18:40:31Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z) - Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy [0.20999222360659608]
顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-03T11:55:28Z) - Microvascular Dynamics from 4D Microscopy Using Temporal Segmentation [81.30750944868142]
経時的に脳血流量の変化を追跡でき, ピアル表面に向かって伝播する自発性動脈拡張を同定できる。
この新たなイメージング機能は、機能的磁気共鳴イメージング(fMRI)を基盤とした血行動態応答関数を特徴付けるための有望なステップである。
論文 参考訳(メタデータ) (2020-01-14T22:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。