論文の概要: VISEM-Tracking, a human spermatozoa tracking dataset
- arxiv url: http://arxiv.org/abs/2212.02842v4
- Date: Wed, 26 Apr 2023 06:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 10:51:29.609060
- Title: VISEM-Tracking, a human spermatozoa tracking dataset
- Title(参考訳): ヒト精子追跡データセットVISEM-Tracking
- Authors: Vajira Thambawita, Steven A. Hicks, Andrea M. Stor{\aa}s, Thu Nguyen,
Jorunn M. Andersen, Oliwia Witczak, Trine B. Haugen, Hugo L. Hammer, P{\aa}l
Halvorsen, Michael A. Riegler
- Abstract要約: 湿式精子製剤の30秒間(29,196フレームを含む)のビデオ録画を20回行うVISEM-Trackingというデータセットを提供する。
本研究では,VISEM-Trackingデータセットを用いて学習したYOLOv5ディープラーニング(DL)モデルを用いた精子検出性能について述べる。
- 参考スコア(独自算出の注目度): 3.1673957150053713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A manual assessment of sperm motility requires microscopy observation, which
is challenging due to the fast-moving spermatozoa in the field of view. To
obtain correct results, manual evaluation requires extensive training.
Therefore, computer-assisted sperm analysis (CASA) has become increasingly used
in clinics. Despite this, more data is needed to train supervised machine
learning approaches in order to improve accuracy and reliability in the
assessment of sperm motility and kinematics. In this regard, we provide a
dataset called VISEM-Tracking with 20 video recordings of 30 seconds
(comprising 29,196 frames) of wet sperm preparations with manually annotated
bounding-box coordinates and a set of sperm characteristics analyzed by experts
in the domain. In addition to the annotated data, we provide unlabeled video
clips for easy-to-use access and analysis of the data via methods such as self-
or unsupervised learning. As part of this paper, we present baseline sperm
detection performances using the YOLOv5 deep learning (DL) model trained on the
VISEM-Tracking dataset. As a result, we show that the dataset can be used to
train complex DL models to analyze spermatozoa.
- Abstract(参考訳): 精子運動を手動で評価するには顕微鏡観察が必要であり、視野の速い精子の観察が困難である。
正確な結果を得るためには、手動による評価には広範な訓練が必要である。
そのため、コンピュータ支援精子分析(CASA)はクリニックでの利用が増えている。
それにもかかわらず、精子運動と運動学の評価の精度と信頼性を向上させるために、教師付き機械学習アプローチの訓練にはより多くのデータが必要である。
そこで本研究では,濡れた精子の30秒間(29,196フレームを含む)のビデオ記録を手動で注釈付き拘束箱座標で記録するVISEM-Tracking(VISEM-Tracking)というデータセットと,その領域の専門家が分析した精子特性のセットを提供する。
注釈付きデータに加えて,自己教師なし学習などの手法により,データへのアクセスと分析が容易なラベル付きビデオクリップを提供する。
本稿では,VISEM-Trackingデータセットを用いて学習したYOLOv5ディープラーニング(DL)モデルを用いた精子検出性能について述べる。
その結果、データセットは複雑なdlモデルの訓練と精子の分析に使用できることが示された。
関連論文リスト
- Self-supervised Representation Learning for Cell Event Recognition through Time Arrow Prediction [23.611375087515963]
ディープラーニングやセグメンテーショントラッキングの手法は、効果的に動作するための大量の高品質なアノテーションに依存している。
本研究では,セルイベント認識の下流タスクに自己教師付き表現学習(SSRL)の機能アノテーションを用いる方法を提案する。
また,生細胞顕微鏡におけるTAPを用いたSSRLの応用について考察した。
論文 参考訳(メタデータ) (2024-11-06T13:54:26Z) - DACO: Towards Application-Driven and Comprehensive Data Analysis via Code Generation [83.30006900263744]
データ分析は、詳細な研究と決定的な洞察を生み出すための重要な分析プロセスである。
LLMのコード生成機能を活用した高品質な応答アノテーションの自動生成を提案する。
我々のDACO-RLアルゴリズムは、57.72%のケースにおいて、SFTモデルよりも有用な回答を生成するために、人間のアノテータによって評価される。
論文 参考訳(メタデータ) (2024-03-04T22:47:58Z) - Automated Sperm Assessment Framework and Neural Network Specialized for
Sperm Video Recognition [0.7499722271664147]
不妊は世界的な健康問題であり、多くのカップルが再生のために医療援助を求めている。
これまで、深層学習を用いた精子評価研究では、精子頭のみからなるデータセットが用いられてきた。
精子評価のためのビデオデータセットを構築した。そのビデオには、精子の頭と首と尾が含まれており、そのラベルにはソフトラベルが付与されている。
論文 参考訳(メタデータ) (2023-11-10T08:23:24Z) - A Novel Dataset for Evaluating and Alleviating Domain Shift for Human
Detection in Agricultural Fields [59.035813796601055]
トレーニングセットの分布外のデータに展開した場合、ドメインシフトが、よく知られたオブジェクト検出データセット上で訓練された人間の検出モデルに与える影響を評価する。
我々は、ロボットティプラットフォームを用いて、農業ロボット応用の文脈で収集されたOpenDR Humans in Fieldデータセットを紹介した。
論文 参考訳(メタデータ) (2022-09-27T07:04:28Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - A Machine Learning Framework for Automatic Prediction of Human Semen
Motility [7.167550590287388]
いくつかの回帰モデルは、与えられたサンプルにおいて進行性、非進行性、不動性精子の比率(0から100)を自動的に予測するように訓練されている。
線形サポートベクトル回帰器(SVR)、多層パーセプトロン(MLP)、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)を含む4つの機械学習モデル。
Crocker-Grierアルゴリズムを用いて精子を教師なしの方法で追跡することにより、運動性を予測するための最良の結果が得られる。
論文 参考訳(メタデータ) (2021-09-16T15:26:40Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Predicting Semen Motility using three-dimensional Convolutional Neural
Networks [0.0]
本稿では,3次元畳み込みニューラルネットワークを用いて,精液試料の顕微鏡映像から精子の運動性を予測する深層学習手法を提案する。
私たちのモデルは、深層学習ベースの自動精液分析が受精率とIVFラボで価値があり効果的なツールになることを示しています。
論文 参考訳(メタデータ) (2021-01-08T07:38:52Z) - Semi-Automatic Data Annotation guided by Feature Space Projection [117.9296191012968]
本稿では,適切な特徴空間投影と半教師付きラベル推定に基づく半自動データアノテーション手法を提案する。
MNISTデータセットとヒト腸内寄生虫の胎児不純物の有無による画像を用いて本手法の有効性を検証した。
この結果から,人間と機械の相補的能力を組み合わせた視覚分析ツールの付加価値が,より効果的な機械学習に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-07-27T17:03:50Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Sperm Detection and Tracking in Phase-Contrast Microscopy Image
Sequences using Deep Learning and Modified CSR-DCF [0.0]
本稿では、オブジェクト検出器として、深層完全畳み込みニューラルネットワークであるRetinaNetを使用する。
検出フェーズの平均精度は99.1%であり、追跡方法のF1スコアは96.61%である。
これらの結果は精子の行動を研究し、受精の可能性を分析するのに非常に役立ちます。
論文 参考訳(メタデータ) (2020-02-11T00:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。