論文の概要: DeepSperm: A robust and real-time bull sperm-cell detection in densely
populated semen videos
- arxiv url: http://arxiv.org/abs/2003.01395v1
- Date: Tue, 3 Mar 2020 09:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 22:17:20.469096
- Title: DeepSperm: A robust and real-time bull sperm-cell detection in densely
populated semen videos
- Title(参考訳): deepsperm:密集した精液ビデオにおける強固でリアルタイムな牛精子細胞検出
- Authors: Priyanto Hidayatullah, Xueting Wang, Toshihiko Yamasaki, Tati L.E.R.
Mengko, Rinaldi Munir, Anggraini Barlian, Eros Sukmawati, Supraptono
Supraptono
- Abstract要約: この研究はDeepSpermと呼ばれるアーキテクチャを提案し、課題を解決し、最先端のアーキテクチャよりも正確で高速である。
実験では,テストデータセット上で86.91 mAP,処理速度50.3 fpsを達成した。
- 参考スコア(独自算出の注目度): 26.494850349599528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background and Objective: Object detection is a primary research interest in
computer vision. Sperm-cell detection in a densely populated bull semen
microscopic observation video presents challenges such as partial occlusion,
vast number of objects in a single video frame, tiny size of the object,
artifacts, low contrast, and blurry objects because of the rapid movement of
the sperm cells. This study proposes an architecture, called DeepSperm, that
solves the aforementioned challenges and is more accurate and faster than
state-of-the-art architectures. Methods: In the proposed architecture, we use
only one detection layer, which is specific for small object detection. For
handling overfitting and increasing accuracy, we set a higher network
resolution, use a dropout layer, and perform data augmentation on hue,
saturation, and exposure. Several hyper-parameters are tuned to achieve better
performance. We compare our proposed method with those of a conventional image
processing-based object-detection method, you only look once (YOLOv3), and mask
region-based convolutional neural network (Mask R-CNN). Results: In our
experiment, we achieve 86.91 mAP on the test dataset and a processing speed of
50.3 fps. In comparison with YOLOv3, we achieve an increase of 16.66 mAP point,
3.26 x faster on testing, and 1.4 x faster on training with a small training
dataset, which contains 40 video frames. The weights file size was also reduced
significantly, with 16.94 x smaller than that of YOLOv3. Moreover, it requires
1.3 x less graphical processing unit (GPU) memory than YOLOv3. Conclusions:
This study proposes DeepSperm, which is a simple, effective, and efficient
architecture with its hyper-parameters and configuration to detect bull sperm
cells robustly in real time. In our experiment, we surpass the state of the art
in terms of accuracy, speed, and resource needs.
- Abstract(参考訳): 背景と対象: 物体検出はコンピュータビジョンの主要な研究分野である。
密集した牛精液観察ビデオにおける精子細胞の検出は、部分的閉塞、単一のビデオフレーム内の膨大な数の物体、物体のサイズ、人工物、低コントラスト、そして精子細胞の急速な移動のためにぼやけた物体などの課題を示している。
本研究では,前述の課題を解決し,最先端アーキテクチャよりも正確かつ高速なアーキテクチャであるdeepspermを提案する。
メソッド:提案したアーキテクチャでは、小さなオブジェクト検出に特有の1つの検出層のみを使用します。
オーバーフィッティング処理と精度向上のために,ネットワーク解像度を高く設定し,ドロップアウト層を使用し,色調,彩度,露出に関するデータ拡張を行う。
いくつかのハイパーパラメータは、より良いパフォーマンスを達成するために調整される。
提案手法を従来の画像処理に基づく物体検出法と比較し,1回だけ(YOLOv3)とマスク領域に基づく畳み込みニューラルネットワーク(Mask R-CNN)を比較した。
結果: 実験では, テストデータセット上で86.91 mAP, 処理速度50.3 fpsを達成した。
YOLOv3と比較して、テストでは16.66 mAPポイント、テストでは3.26倍高速、トレーニングでは40の動画フレームを含む小さなトレーニングデータセットで1.4倍高速となる。
ファイルサイズも大幅に縮小され、YOLOv3より16.94x小さくなった。
さらに、YOLOv3よりも1.3倍少ないグラフィカル処理ユニット(GPU)メモリを必要とする。
結論:本研究は、牛精子をリアルタイムで堅牢に検出するハイパーパラメータと構成を備えた、シンプルで効果的で効率的なアーキテクチャであるDeepSpermを提案する。
実験では,精度,速度,資源ニーズの観点から,技術の現状を超越した。
関連論文リスト
- YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Wearing face mask detection using deep learning through COVID-19
pandemic [0.0]
本稿では,3つの最先端物体検出ニューラルネットワークによる顔マスク検出のリアルタイム応用の可能性について検討する。
異なるモデルの性能によると、現実世界やモバイルデバイスでの使用に適した最良のモデルは、YOLOv4-tinyモデルである。
論文 参考訳(メタデータ) (2023-04-28T19:39:32Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - SuperYOLO: Super Resolution Assisted Object Detection in Multimodal
Remote Sensing Imagery [36.216230299131404]
マルチモーダルデータを融合し,マルチスケールオブジェクトに対して高分解能(HR)オブジェクト検出を行うSuperYOLOを提案する。
提案モデルでは,最先端モデルと比較して,精度と速度のトレードオフが良好である。
論文 参考訳(メタデータ) (2022-09-27T12:58:58Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - EResFD: Rediscovery of the Effectiveness of Standard Convolution for
Lightweight Face Detection [13.357235715178584]
顔検出のための軽量バックボーンアーキテクチャとして,標準的な畳み込みブロックの有効性を再検討する。
チャネル切断された標準畳み込み層は精度と推論速度を向上できることを示す。
提案する検出器EResFDは,CPU上でのVGA画像推測に37.7msしか要しないWIDER FACE Hardサブセット上で80.4%のmAPを得た。
論文 参考訳(メタデータ) (2022-04-04T02:30:43Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - YOLObile: Real-Time Object Detection on Mobile Devices via
Compression-Compilation Co-Design [38.98949683262209]
本稿では,モバイル端末上でリアルタイムなオブジェクト検出を行う YOLObile フレームワークを提案する。
任意のカーネルサイズに対して新しいブロックパンチプルーニング方式を提案する。
YOLObileフレームワークでは,Samsung Galaxy S20上でGPUを用いて17FPSの推論速度を実現している。
論文 参考訳(メタデータ) (2020-09-12T01:41:08Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。