論文の概要: Sperm Detection and Tracking in Phase-Contrast Microscopy Image
Sequences using Deep Learning and Modified CSR-DCF
- arxiv url: http://arxiv.org/abs/2002.04034v4
- Date: Sat, 4 Apr 2020 06:21:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:03:13.430812
- Title: Sperm Detection and Tracking in Phase-Contrast Microscopy Image
Sequences using Deep Learning and Modified CSR-DCF
- Title(参考訳): 深層学習と修正csr-dcfを用いた位相コントラスト顕微鏡画像の精子検出と追跡
- Authors: Mohammad reza Mohammadi, Mohammad Rahimzadeh and Abolfazl Attar
- Abstract要約: 本稿では、オブジェクト検出器として、深層完全畳み込みニューラルネットワークであるRetinaNetを使用する。
検出フェーズの平均精度は99.1%であり、追跡方法のF1スコアは96.61%である。
これらの結果は精子の行動を研究し、受精の可能性を分析するのに非常に役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, computer-aided sperm analysis (CASA) systems have made a big leap
in extracting the characteristics of spermatozoa for studies or measuring human
fertility. The first step in sperm characteristics analysis is sperm detection
in the frames of the video sample. In this article, we used RetinaNet, a deep
fully convolutional neural network as the object detector. Sperms are small
objects with few attributes, that makes the detection more difficult in
high-density samples and especially when there are other particles in semen,
which could be like sperm heads. One of the main attributes of sperms is their
movement, but this attribute cannot be extracted when only one frame would be
fed to the network. To improve the performance of the sperm detection network,
we concatenated some consecutive frames to use as the input of the network.
With this method, the motility attribute has also been extracted, and then with
the help of the deep convolutional network, we have achieved high accuracy in
sperm detection. The second step is tracking the sperms, for extracting the
motility parameters that are essential for indicating fertility and other
studies on sperms. In the tracking phase, we modify the CSR-DCF algorithm. This
method also has shown excellent results in sperm tracking even in high-density
sperm samples, occlusions, sperm colliding, and when sperms exit from a frame
and re-enter in the next frames. The average precision of the detection phase
is 99.1%, and the F1 score of the tracking method evaluation is 96.61%. These
results can be a great help in studies investigating sperm behavior and
analyzing fertility possibility.
- Abstract(参考訳): 近年、コンピュータ支援精子分析システム(CASA)は、ヒトの精子の特徴を抽出し、ヒトの受精率を測定している。
精子の特徴分析の最初のステップは、ビデオサンプルのフレームにおける精子の検出である。
本稿では,物体検出器として深部完全畳み込みニューラルネットワークであるRetinaNetを用いた。
精子は少数の属性を持つ小さな物体であり、高密度のサンプル、特に精子の頭のような精液中に他の粒子が存在する場合、検出がより困難になる。
精子の主な特性の1つは運動であるが、この特性は1つのフレームだけがネットワークに供給されるときに抽出できない。
精子検出ネットワークの性能を向上させるため,ネットワークの入力として使用する連続したフレームを連結した。
この方法により運動特性も抽出され,さらに深部畳み込みネットワークの助けを借りて,精子検出の精度が向上した。
第2のステップは精子を追跡することで、精子の受精やその他の研究に不可欠な運動パラメータを抽出する。
追跡フェーズでは、CSR-DCFアルゴリズムを変更する。
また、高密度精子サンプル、オクルージョン、精子衝突、および精子がフレームから出て次のフレームに再突入した場合においても、精子追跡の優れた結果を示す。
検出フェーズの平均精度は99.1%であり、追跡方法の評価のF1スコアは96.61%である。
これらの結果は精子の行動の研究や受精の可能性の分析に大いに役立ちます。
関連論文リスト
- Automated Sperm Assessment Framework and Neural Network Specialized for
Sperm Video Recognition [0.7499722271664147]
不妊は世界的な健康問題であり、多くのカップルが再生のために医療援助を求めている。
これまで、深層学習を用いた精子評価研究では、精子頭のみからなるデータセットが用いられてきた。
精子評価のためのビデオデータセットを構築した。そのビデオには、精子の頭と首と尾が含まれており、そのラベルにはソフトラベルが付与されている。
論文 参考訳(メタデータ) (2023-11-10T08:23:24Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - ACTIVE: A Deep Model for Sperm and Impurity Detection in Microscopic
Videos [17.3840418564686]
二重分岐特徴抽出ネットワーク(DBFEN)とクロス共役特徴ピラミッドネットワーク(CCFPN)に基づくディープラーニングモデルを提案する。
実験の結果、精子と不純物検出の最も高いAP50は91.13%と59.64%であり、競争相手をかなりの差でリードさせ、この問題に新たな最先端の結果を確立した。
論文 参考訳(メタデータ) (2023-01-15T02:24:17Z) - VISEM-Tracking, a human spermatozoa tracking dataset [3.1673957150053713]
湿式精子製剤の30秒間(29,196フレームを含む)のビデオ録画を20回行うVISEM-Trackingというデータセットを提供する。
本研究では,VISEM-Trackingデータセットを用いて学習したYOLOv5ディープラーニング(DL)モデルを用いた精子検出性能について述べる。
論文 参考訳(メタデータ) (2022-12-06T09:25:52Z) - TOD-CNN: An Effective Convolutional Neural Network for Tiny Object
Detection in Sperm Videos [17.739265119524244]
高品質な精子顕微鏡ビデオの基盤となるデータセットを用いて, 微小物体検出のための畳み込みニューラルネットワーク(TOD-CNN)を提案する。
精子品質分析における精子検出技術の重要性を明らかにするため,関連する精子品質評価尺度を作成し,医師の診断結果と比較した。
論文 参考訳(メタデータ) (2022-04-18T05:14:27Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - A Survey of Semen Quality Evaluation in Microscopic Videos Using
Computer Assisted Sperm Analysis [14.07532901052797]
CASA(Computer Assisted Sperm Analysis)は、男性生殖健康診断と不妊治療において重要な役割を担っている。
過去30年間(1988年以降)のコンピュータ・アシスト精子分析手法に関する様々な研究が包括的に紹介され、分析されている。
論文 参考訳(メタデータ) (2022-02-16T01:50:58Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - SCOP: Scientific Control for Reliable Neural Network Pruning [127.20073865874636]
本稿では,科学的制御を設定することにより,信頼性の高いニューラルネットワークプルーニングアルゴリズムを提案する。
冗長フィルタは、異なる特徴の逆数過程において発見できる。
提案手法では,ResNet-101のパラメータ57.8%,FLOP60.2%を削減できる。
論文 参考訳(メタデータ) (2020-10-21T03:02:01Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z) - Hybrid Attention for Automatic Segmentation of Whole Fetal Head in
Prenatal Ultrasound Volumes [52.53375964591765]
胎児の頭部全体を米国全巻に分割する,最初の完全自動化ソリューションを提案する。
セグメント化タスクは、まずエンコーダ-デコーダディープアーキテクチャの下で、エンドツーエンドのボリュームマッピングとして定式化される。
次に,セグメンタとハイブリットアテンションスキーム(HAS)を組み合わせることで,識別的特徴を選択し,非情報量的特徴を抑える。
論文 参考訳(メタデータ) (2020-04-28T14:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。