論文の概要: DropTrack -- automatic droplet tracking using deep learning for
microfluidic applications
- arxiv url: http://arxiv.org/abs/2205.02568v1
- Date: Thu, 5 May 2022 11:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 23:27:03.023567
- Title: DropTrack -- automatic droplet tracking using deep learning for
microfluidic applications
- Title(参考訳): DropTrack -- マイクロ流体アプリケーションのためのディープラーニングを用いた自動液滴追跡
- Authors: Mihir Durve, Adriano Tiribocchi, Fabio Bonaccorso, Andrea Montessori,
Marco Lauricella, Michal Bogdan, Jan Guzowski, Sauro Succi
- Abstract要約: マイクロ流体実験でしばしば望まれる基本的な分析は、滴を数え、追跡することである。
ここでは、オブジェクト検出(YOLO)とオブジェクト追跡(DeepSORT)の2つのディープラーニングベースのアルゴリズムを、単一の画像解析ツールDropTrackに統合する。
DropTrackは、入力ビデオを分析し、ドロップレットのトラジェクトリを抽出し、ドロップレット番号などの他のオブザーバビリティーを推論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are rapidly emerging as data analysis tools, often
outperforming the conventional techniques used in complex microfluidic systems.
One fundamental analysis frequently desired in microfluidic experiments is
counting and tracking the droplets. Specifically, droplet tracking in dense
emulsions is challenging as droplets move in tightly packed configurations.
Sometimes the individual droplets in these dense clusters are hard to resolve,
even for a human observer. Here, two deep learning-based cutting-edge
algorithms for object detection (YOLO) and object tracking (DeepSORT) are
combined into a single image analysis tool, DropTrack, to track droplets in
microfluidic experiments. DropTrack analyzes input videos, extracts droplets'
trajectories, and infers other observables of interest, such as droplet
numbers. Training an object detector network for droplet recognition with
manually annotated images is a labor-intensive task and a persistent
bottleneck. This work partly resolves this problem by training object detector
networks (YOLOv5) with hybrid datasets containing real and synthetic images. We
present an analysis of a double emulsion experiment as a case study to measure
DropTrack's performance. For our test case, the YOLO networks trained with 60%
synthetic images show similar performance in droplet counting as with the one
trained using 100% real images, meanwhile saving the image annotation work by
60%. DropTrack's performance is measured in terms of mean average precision
(mAP), mean square error in counting the droplets, and inference speed. The
fastest configuration of DropTrack runs inference at about 30 frames per
second, well within the standards for real-time image analysis.
- Abstract(参考訳): 深層ニューラルネットワークはデータ分析ツールとして急速に普及しており、複雑なマイクロ流体システムで使用される従来の手法よりも優れていることが多い。
マイクロ流体実験でしばしば望まれる基本的な分析の一つは、液滴の数え上げと追跡である。
特に高密度エマルションにおける液滴追跡は, 密充填状態での液滴移動が困難である。
これらの密集したクラスター内の個々の液滴は、人間の観察者でさえ解決しにくいことがある。
ここでは、オブジェクト検出(YOLO)とオブジェクト追跡(DeepSORT)の2つのディープラーニングベースの最先端アルゴリズムを1つの画像解析ツールDropTrackに統合し、マイクロ流体実験における滴の追跡を行う。
DropTrackは入力ビデオを分析し、ドロップレットのトラジェクトリを抽出し、ドロップレット番号などの他のオブザーバビリティーを推論する。
手動のアノテート画像による滴認識のためのオブジェクト検出ネットワークのトレーニングは、労働集約的な作業であり、永続的なボトルネックである。
この研究は、オブジェクト検出ネットワーク(YOLOv5)を実画像と合成画像を含むハイブリッドデータセットでトレーニングすることで、この問題を部分的に解決する。
そこで本研究では,DropTrackの性能測定のための二重エマルション実験の分析を行った。
テストケースでは、60パーセントの合成画像でトレーニングしたYOLOネットワークは、100%の実画像でトレーニングしたものと同様、ドロップレットカウントで同様の性能を示し、一方、画像アノテーションの動作を60%削減した。
DropTrackのパフォーマンスは平均平均精度(mAP)、平均2乗誤差、推測速度で測定される。
DropTrackの最も高速な構成は毎秒約30フレームで、リアルタイム画像解析の標準の範囲内である。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - MEMTRACK: A Deep Learning-Based Approach to Microrobot Tracking in Dense
and Low-Contrast Environments [4.638136711579875]
Motion Enhanced Multi-level Tracker (MEMTrack) はマイクロロボットを検知・追跡するための堅牢なパイプラインである。
菌体マイクロモーターを用いてコラーゲン(tissue phantom)の試験を行い,コラーゲンおよび水性培地で試験した。
MEMTrackは、精巧に生産された手動追跡データと統計的に有意な差がなく、平均細菌の速度を定量化することができる。
論文 参考訳(メタデータ) (2023-10-13T23:21:32Z) - ReST: A Reconfigurable Spatial-Temporal Graph Model for Multi-Camera
Multi-Object Tracking [11.619493960418176]
Multi-Camera Multi-Object Tracking (MC-MOT)は、複数のビューからの情報を利用して、閉塞や混み合ったシーンの問題に対処する。
現在のグラフベースの手法では、空間的および時間的整合性に関する情報を効果的に利用しない。
本稿では,まず,検出対象を空間的に関連づけて時間グラフに再構成する,新しい再構成可能なグラフモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:02:04Z) - Benchmarking YOLOv5 and YOLOv7 models with DeepSORT for droplet tracking
applications [0.0]
この研究は、マイクロ流体滴のカスタムデータセットのトレーニング時間と推論時間の観点から、DeepSORTを使ったYOLOv5とYOLOv7ネットワークのベンチマーク研究である。
各種ハードウェア構成におけるビデオ解析のトレーニング時間と時間の観点から, ドロップレット追跡アプリケーションの性能を YOLOv5 と YOLOv7 と比較した。
論文 参考訳(メタデータ) (2023-01-19T17:37:40Z) - QDTrack: Quasi-Dense Similarity Learning for Appearance-Only Multiple
Object Tracking [73.52284039530261]
本稿では,コントラスト学習のために,画像上に数百のオブジェクト領域を密集した擬似Dense類似性学習を提案する。
得られた特徴空間は、オブジェクトアソシエーションの推論時間において、単純な近接探索を許容する。
我々の類似性学習方式は,ビデオデータに限らず,静的入力でも有効なインスタンス類似性を学ぶことができることを示す。
論文 参考訳(メタデータ) (2022-10-12T15:47:36Z) - A Bayesian Detect to Track System for Robust Visual Object Tracking and
Semi-Supervised Model Learning [1.7268829007643391]
ニューラルネットワークの出力によってパラメータ化されたベイズ追跡・検出フレームワークにおける副次的問題について述べる。
本稿では,粒子フィルタを用いた物体状態推定のための近似サンプリングアルゴリズムを提案する。
粒子フィルタ推論アルゴリズムを用いて,間欠的なラベル付きフレーム上でのトラッキングネットワークの学習に半教師付き学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2022-05-05T00:18:57Z) - Finding a Needle in a Haystack: Tiny Flying Object Detection in 4K
Videos using a Joint Detection-and-Tracking Approach [19.59528430884104]
本稿では,検出と追跡を共同で行うrecurrent correlational networkと呼ばれるニューラルネットワークモデルを提案する。
鳥や無人航空機などの小さな飛行物体の画像を含むデータセットを用いた実験では、提案手法は一貫した改善をもたらした。
我々のネットワークは、鳥の画像データセットのトラッカーとして評価されたとき、最先端の汎用オブジェクトトラッカと同様に機能します。
論文 参考訳(メタデータ) (2021-05-18T03:22:03Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - Cascaded Regression Tracking: Towards Online Hard Distractor
Discrimination [202.2562153608092]
本稿では,2段階の逐次回帰トラッカーを提案する。
第1段階では, 容易に同定可能な負の候補を抽出する。
第2段階では、残留するあいまいな硬質試料をダブルチェックするために、離散サンプリングに基づくリッジ回帰を設計する。
論文 参考訳(メタデータ) (2020-06-18T07:48:01Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。