論文の概要: TOD-CNN: An Effective Convolutional Neural Network for Tiny Object
Detection in Sperm Videos
- arxiv url: http://arxiv.org/abs/2204.08166v1
- Date: Mon, 18 Apr 2022 05:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 22:24:16.234339
- Title: TOD-CNN: An Effective Convolutional Neural Network for Tiny Object
Detection in Sperm Videos
- Title(参考訳): TOD-CNN: 精子ビデオにおけるTinyオブジェクト検出のための効果的な畳み込みニューラルネットワーク
- Authors: Shuojia Zou, Chen Li, Hongzan Sun, Peng Xu, Jiawei Zhang, Pingli Ma,
Yudong Yao, Xinyu Huang, Marcin Grzegorzek
- Abstract要約: 高品質な精子顕微鏡ビデオの基盤となるデータセットを用いて, 微小物体検出のための畳み込みニューラルネットワーク(TOD-CNN)を提案する。
精子品質分析における精子検出技術の重要性を明らかにするため,関連する精子品質評価尺度を作成し,医師の診断結果と比較した。
- 参考スコア(独自算出の注目度): 17.739265119524244
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The detection of tiny objects in microscopic videos is a problematic point,
especially in large-scale experiments. For tiny objects (such as sperms) in
microscopic videos, current detection methods face challenges in fuzzy,
irregular, and precise positioning of objects. In contrast, we present a
convolutional neural network for tiny object detection (TOD-CNN) with an
underlying data set of high-quality sperm microscopic videos (111 videos, $>$
278,000 annotated objects), and a graphical user interface (GUI) is designed to
employ and test the proposed model effectively. TOD-CNN is highly accurate,
achieving $85.60\%$ AP$_{50}$ in the task of real-time sperm detection in
microscopic videos. To demonstrate the importance of sperm detection technology
in sperm quality analysis, we carry out relevant sperm quality evaluation
metrics and compare them with the diagnosis results from medical doctors.
- Abstract(参考訳): 顕微鏡ビデオにおける微小物体の検出は特に大規模な実験では問題となる。
顕微鏡ビデオの小さな物体(精子など)では、現在の検出法はファジィ、不規則、正確な物体の位置決めの課題に直面している。
対照的に、高品質な精子顕微鏡ビデオ(111本、$$278,000の注釈付きオブジェクト)を基盤とした、微小物体検出のための畳み込みニューラルネットワーク(TOD-CNN)を提案し、提案モデルを効果的に利用し、テストするためにグラフィカルユーザインタフェース(GUI)を設計する。
tod-cnnは非常に正確で、顕微鏡ビデオでリアルタイム精子検出のタスクで85.60\%$ ap$_{50}$を達成した。
精子品質分析における精子検出技術の重要性を明らかにするため,関連する精子品質評価尺度を作成し,医師の診断結果と比較した。
関連論文リスト
- Visible and Clear: Finding Tiny Objects in Difference Map [50.54061010335082]
本稿では,検出モデルに自己再構成機構を導入し,それと微小物体との強い相関関係を明らかにする。
具体的には、再構成画像と入力の差分マップを構築して、検出器の首の内側に再構成ヘッドを配置し、小さな物体に対して高い感度を示す。
さらに、小さな特徴表現をより明確にするために、差分マップガイド機能拡張(DGFE)モジュールを開発する。
論文 参考訳(メタデータ) (2024-05-18T12:22:26Z) - ACTIVE: A Deep Model for Sperm and Impurity Detection in Microscopic
Videos [17.3840418564686]
二重分岐特徴抽出ネットワーク(DBFEN)とクロス共役特徴ピラミッドネットワーク(CCFPN)に基づくディープラーニングモデルを提案する。
実験の結果、精子と不純物検出の最も高いAP50は91.13%と59.64%であり、競争相手をかなりの差でリードさせ、この問題に新たな最先端の結果を確立した。
論文 参考訳(メタデータ) (2023-01-15T02:24:17Z) - VISEM-Tracking, a human spermatozoa tracking dataset [3.1673957150053713]
湿式精子製剤の30秒間(29,196フレームを含む)のビデオ録画を20回行うVISEM-Trackingというデータセットを提供する。
本研究では,VISEM-Trackingデータセットを用いて学習したYOLOv5ディープラーニング(DL)モデルを用いた精子検出性能について述べる。
論文 参考訳(メタデータ) (2022-12-06T09:25:52Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Transfer Learning of Deep Spatiotemporal Networks to Model Arbitrarily
Long Videos of Seizures [58.720142291102135]
てんかん患者の治療には, てんかんセミノロジーの詳細な分析が重要である。
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせた新しいアーキテクチャであるGESTURESを紹介する。
本稿では,HARデータセットでトレーニングしたSTCNNとRNNを組み合わせて,任意の長さの発作映像を正確に表現できることを示す。
論文 参考訳(メタデータ) (2021-06-22T18:40:31Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Predicting Semen Motility using three-dimensional Convolutional Neural
Networks [0.0]
本稿では,3次元畳み込みニューラルネットワークを用いて,精液試料の顕微鏡映像から精子の運動性を予測する深層学習手法を提案する。
私たちのモデルは、深層学習ベースの自動精液分析が受精率とIVFラボで価値があり効果的なツールになることを示しています。
論文 参考訳(メタデータ) (2021-01-08T07:38:52Z) - An Analysis of Deep Object Detectors For Diver Detection [19.14344722263869]
ビデオから得られたダイバーの注釈付き画像を約105,000枚作成する。
私たちは、Mobilenetを使ったSSD、Faster R-CNN、YOLOなど、オブジェクト検出のための最先端のディープニューラルネットワークをトレーニングしています。
この結果に基づき、ロボットのリアルタイム応用にTiny-YOLOv4を推奨する。
論文 参考訳(メタデータ) (2020-11-25T01:50:32Z) - DeepShadows: Separating Low Surface Brightness Galaxies from Artifacts
using Deep Learning [70.80563014913676]
本研究では,低地光度銀河と人工物とを分離する問題に対する畳み込みニューラルネットワーク(CNN)の利用について検討する。
我々は、CNNが低地光度宇宙の研究に非常に有望な道を提供することを示した。
論文 参考訳(メタデータ) (2020-11-24T22:51:08Z) - Sperm Detection and Tracking in Phase-Contrast Microscopy Image
Sequences using Deep Learning and Modified CSR-DCF [0.0]
本稿では、オブジェクト検出器として、深層完全畳み込みニューラルネットワークであるRetinaNetを使用する。
検出フェーズの平均精度は99.1%であり、追跡方法のF1スコアは96.61%である。
これらの結果は精子の行動を研究し、受精の可能性を分析するのに非常に役立ちます。
論文 参考訳(メタデータ) (2020-02-11T00:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。