論文の概要: VISEM-Tracking: Human Spermatozoa Tracking Dataset
- arxiv url: http://arxiv.org/abs/2212.02842v1
- Date: Tue, 6 Dec 2022 09:25:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 15:28:09.568739
- Title: VISEM-Tracking: Human Spermatozoa Tracking Dataset
- Title(参考訳): VISEM-Tracking:ヒト精子追跡データセット
- Authors: Vajira Thambawita, Steven A. Hicks, Andrea M. Stor{\aa}s, Thu Nguyen,
Jorunn M. Andersen, Oliwia Witczak, Trine B. Haugen, Hugo L. Hammer, P{\aa}l
Halvorsen, Michael A. Riegler
- Abstract要約: 精子30秒のビデオ記録を手動で注釈付き境界箱座標で行うVISEM-Trackingというデータセットを提供する。
本稿では,VISEM-Trackingデータセットに基づいて学習したYOLOv5深層学習モデルを用いた精子検出性能について述べる。
- 参考スコア(独自算出の注目度): 3.1673957150053713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manually analyzing spermatozoa is a tremendous task for biologists due to the
many fast-moving spermatozoa, causing inconsistencies in the quality of the
assessments. Therefore, computer-assisted sperm analysis (CASA) has become a
popular solution. Despite this, more data is needed to train supervised machine
learning approaches in order to improve accuracy and reliability. In this
regard, we provide a dataset called VISEM-Tracking with 20 video recordings of
30s of spermatozoa with manually annotated bounding-box coordinates and a set
of sperm characteristics analyzed by experts in the domain. VISEM-Tracking is
an extension of the previously published VISEM dataset. In addition to the
annotated data, we provide unlabeled video clips for easy-to-use access and
analysis of the data. As part of this paper, we present baseline sperm
detection performances using the YOLOv5 deep learning model trained on the
VISEM-Tracking dataset. As a result, the dataset can be used to train complex
deep-learning models to analyze spermatozoa. The dataset is publicly available
at https://zenodo.org/record/7293726.
- Abstract(参考訳): 精子を手動で分析することは、多くの速く動く精子が原因で生物学者にとって大きな課題である。
そのため、コンピュータ支援精子分析(CASA)が普及している。
それにもかかわらず、精度と信頼性を向上させるために、教師付き機械学習アプローチのトレーニングにはより多くのデータが必要である。
本研究では,20種類の精子のビデオ記録を手作業でアノテートしたバウンディングボックス座標と,領域の専門家によって分析された精子特性を組み込んだvisem-trackingというデータセットを提供する。
VISEM-Trackingは、以前公開されたVISEMデータセットの拡張である。
注釈付きデータに加えて,データへのアクセスと分析が容易なラベル付きビデオクリップを提供する。
本稿では,VISEM-Trackingデータセットに基づいて学習したYOLOv5深層学習モデルを用いて,基礎的な精子検出性能を示す。
その結果、データセットは複雑なディープラーニングモデルのトレーニングと精子の分析に使用できる。
データセットはhttps://zenodo.org/record/7293726で公開されている。
関連論文リスト
- Self-supervised Representation Learning for Cell Event Recognition through Time Arrow Prediction [23.611375087515963]
ディープラーニングやセグメンテーショントラッキングの手法は、効果的に動作するための大量の高品質なアノテーションに依存している。
本研究では,セルイベント認識の下流タスクに自己教師付き表現学習(SSRL)の機能アノテーションを用いる方法を提案する。
また,生細胞顕微鏡におけるTAPを用いたSSRLの応用について考察した。
論文 参考訳(メタデータ) (2024-11-06T13:54:26Z) - DACO: Towards Application-Driven and Comprehensive Data Analysis via Code Generation [83.30006900263744]
データ分析は、詳細な研究と決定的な洞察を生み出すための重要な分析プロセスである。
LLMのコード生成機能を活用した高品質な応答アノテーションの自動生成を提案する。
我々のDACO-RLアルゴリズムは、57.72%のケースにおいて、SFTモデルよりも有用な回答を生成するために、人間のアノテータによって評価される。
論文 参考訳(メタデータ) (2024-03-04T22:47:58Z) - Automated Sperm Assessment Framework and Neural Network Specialized for
Sperm Video Recognition [0.7499722271664147]
不妊は世界的な健康問題であり、多くのカップルが再生のために医療援助を求めている。
これまで、深層学習を用いた精子評価研究では、精子頭のみからなるデータセットが用いられてきた。
精子評価のためのビデオデータセットを構築した。そのビデオには、精子の頭と首と尾が含まれており、そのラベルにはソフトラベルが付与されている。
論文 参考訳(メタデータ) (2023-11-10T08:23:24Z) - A Novel Dataset for Evaluating and Alleviating Domain Shift for Human
Detection in Agricultural Fields [59.035813796601055]
トレーニングセットの分布外のデータに展開した場合、ドメインシフトが、よく知られたオブジェクト検出データセット上で訓練された人間の検出モデルに与える影響を評価する。
我々は、ロボットティプラットフォームを用いて、農業ロボット応用の文脈で収集されたOpenDR Humans in Fieldデータセットを紹介した。
論文 参考訳(メタデータ) (2022-09-27T07:04:28Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - A Machine Learning Framework for Automatic Prediction of Human Semen
Motility [7.167550590287388]
いくつかの回帰モデルは、与えられたサンプルにおいて進行性、非進行性、不動性精子の比率(0から100)を自動的に予測するように訓練されている。
線形サポートベクトル回帰器(SVR)、多層パーセプトロン(MLP)、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)を含む4つの機械学習モデル。
Crocker-Grierアルゴリズムを用いて精子を教師なしの方法で追跡することにより、運動性を予測するための最良の結果が得られる。
論文 参考訳(メタデータ) (2021-09-16T15:26:40Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Predicting Semen Motility using three-dimensional Convolutional Neural
Networks [0.0]
本稿では,3次元畳み込みニューラルネットワークを用いて,精液試料の顕微鏡映像から精子の運動性を予測する深層学習手法を提案する。
私たちのモデルは、深層学習ベースの自動精液分析が受精率とIVFラボで価値があり効果的なツールになることを示しています。
論文 参考訳(メタデータ) (2021-01-08T07:38:52Z) - Semi-Automatic Data Annotation guided by Feature Space Projection [117.9296191012968]
本稿では,適切な特徴空間投影と半教師付きラベル推定に基づく半自動データアノテーション手法を提案する。
MNISTデータセットとヒト腸内寄生虫の胎児不純物の有無による画像を用いて本手法の有効性を検証した。
この結果から,人間と機械の相補的能力を組み合わせた視覚分析ツールの付加価値が,より効果的な機械学習に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-07-27T17:03:50Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Sperm Detection and Tracking in Phase-Contrast Microscopy Image
Sequences using Deep Learning and Modified CSR-DCF [0.0]
本稿では、オブジェクト検出器として、深層完全畳み込みニューラルネットワークであるRetinaNetを使用する。
検出フェーズの平均精度は99.1%であり、追跡方法のF1スコアは96.61%である。
これらの結果は精子の行動を研究し、受精の可能性を分析するのに非常に役立ちます。
論文 参考訳(メタデータ) (2020-02-11T00:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。