論文の概要: A deep neural network for multi-species fish detection using multiple
acoustic cameras
- arxiv url: http://arxiv.org/abs/2109.10664v1
- Date: Wed, 22 Sep 2021 11:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:44:50.695153
- Title: A deep neural network for multi-species fish detection using multiple
acoustic cameras
- Title(参考訳): 複数の音響カメラを用いた多種魚検出のための深層ニューラルネットワーク
- Authors: Garcia Fernandez, Guglielmo Fernandez, Fran\c{c}ois Martignac, Marie
Nevoux, Laurent Beaulaton (OFB), Thomas Corpetti (LETG - Rennes)
- Abstract要約: 本稿では,CNN (Convolutional Neural Network) と従来のCV (Computer Vision) 技術の両方を活用する新しい手法を提案する。
パイプラインは、音像を前処理して2つの特徴を抽出し、信号をローカライズし、検出性能を向上させる。
YOLOv3ベースのモデルは、2つの一般的な音響カメラで記録された複数の種の魚のデータを用いて訓練された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater acoustic cameras are high potential devices for many applications
in ecology, notably for fisheries management and monitoring. However how to
extract such data into high value information without a time-consuming entire
dataset reading by an operator is still a challenge. Moreover the analysis of
acoustic imaging, due to its low signal-to-noise ratio, is a perfect training
ground for experimenting with new approaches, especially concerning Deep
Learning techniques. We present hereby a novel approach that takes advantage of
both CNN (Convolutional Neural Network) and classical CV (Computer Vision)
techniques, able to detect a generic class ''fish'' in acoustic video streams.
The pipeline pre-treats the acoustic images to extract 2 features, in order to
localise the signals and improve the detection performances. To ensure the
performances from an ecological point of view, we propose also a two-step
validation, one to validate the results of the trainings and one to test the
method on a real-world scenario. The YOLOv3-based model was trained with data
of fish from multiple species recorded by the two common acoustic cameras,
DIDSON and ARIS, including species of high ecological interest, as Atlantic
salmon or European eels. The model we developed provides satisfying results
detecting almost 80% of fish and minimizing the false positive rate, however
the model is much less efficient for eel detections on ARIS videos. The first
CNN pipeline for fish monitoring exploiting video data from two models of
acoustic cameras satisfies most of the required features. Many challenges are
still present, such as the automation of fish species identification through a
multiclass model. 1 However the results point a new solution for dealing with
complex data, such as sonar data, which can also be reapplied in other cases
where the signal-to-noise ratio is a challenge.
- Abstract(参考訳): 水中音響カメラは、生態学、特に漁業管理とモニタリングに多くの応用の可能性がある。
しかし、オペレータによるデータセット全体の読み込み時間を消費することなく、これらのデータを高価値な情報に抽出する方法は依然として課題である。
さらに、低信号-雑音比による音響画像解析は、特にディープラーニング技術に関する新しいアプローチを試すための完璧な訓練場である。
本稿では,CNN (Convolutional Neural Network) と従来のCV (Computer Vision) 技術の両方を活用する新しい手法を提案する。
パイプラインは2つの特徴を抽出するために音響画像の前処理を行い、信号のローカライズと検出性能の向上を図る。
生態学的観点からの評価を確実にするために,2段階の検証,トレーニングの結果の検証,実世界のシナリオでの手法の検証も提案する。
ヨロフ3ベースのモデルは、アトランティックサーモンやヨーロッパウナギといった生態学的関心の高い種を含む2つの一般的な音響カメラによって記録された複数の種の魚のデータを用いて訓練された。
私たちが開発したモデルは,魚の80%近くを検知し,偽陽性率を最小化するという満足のいく結果を提供するが,arisビデオのウナギ検出にはあまり効果がない。
魚をモニタリングする最初のcnnパイプラインは、2つのモデルの音響カメラからの映像データを活用し、必要な機能の大部分を満たす。
多種モデルによる魚種識別の自動化など、多くの課題がまだ残っている。
しかし,本研究では,信号対雑音比が問題となる他の場合においても再適用可能な,ソナーデータなどの複雑なデータを扱うための新たなソリューションを提案する。
関連論文リスト
- TinyChirp: Bird Song Recognition Using TinyML Models on Low-power Wireless Acoustic Sensors [1.0790796076947324]
大規模な生物多様性のモニタリングは難しい。
微細な粒度の種の検出と識別には、高度に正確な機械学習(ML)手法が必要である。
これらのモデルを低消費電力デバイスにデプロイするには、新しい圧縮技術とモデルアーキテクチャが必要である。
論文 参考訳(メタデータ) (2024-07-31T08:57:42Z) - Real Acoustic Fields: An Audio-Visual Room Acoustics Dataset and Benchmark [65.79402756995084]
Real Acoustic Fields (RAF)は、複数のモードから実際の音響室データをキャプチャする新しいデータセットである。
RAFは密集した室内音響データを提供する最初のデータセットである。
論文 参考訳(メタデータ) (2024-03-27T17:59:56Z) - Histogram Layer Time Delay Neural Networks for Passive Sonar
Classification [58.720142291102135]
時間遅延ニューラルネットワークとヒストグラム層を組み合わせた新しい手法により,特徴学習の改善と水中音響目標分類を実現する。
提案手法はベースラインモデルより優れており,受動的ソナー目標認識のための統計的文脈を取り入れた有効性を示す。
論文 参考訳(メタデータ) (2023-07-25T19:47:26Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Decision Forest Based EMG Signal Classification with Low Volume Dataset
Augmented with Random Variance Gaussian Noise [51.76329821186873]
我々は6種類の手振りを限定的なサンプル数で分類できるモデルを作成し、より広い聴衆によく一般化する。
信号のランダムなバウンドの使用など、より基本的な手法のセットにアピールするが、これらの手法がオンライン環境で持てる力を示したいと考えている。
論文 参考訳(メタデータ) (2022-06-29T23:22:18Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z) - SWIPENET: Object detection in noisy underwater images [41.35601054297707]
本稿では,この2つの問題に対処するために,Sample-WeIghted hyPEr Network(SWIPENET)とCurriculum Multi-Class Adaboost(CMA)という堅牢なトレーニングパラダイムを提案する。
SWIPENETのバックボーンは、複数の高解像度かつセマンティックリッチなハイパーフィーチャーマップを生成し、小さなオブジェクト検出を大幅に改善する。
簡単な概念から難しい概念まで学習を促進する人間の教育プロセスに着想を得て,まず騒音の影響を受けないクリーンな検出器を訓練するCMA訓練パラダイムを提案する。
論文 参考訳(メタデータ) (2020-10-19T16:41:20Z) - Image-based Automated Species Identification: Can Virtual Data
Augmentation Overcome Problems of Insufficient Sampling? [0.0]
視覚的種自動識別のための2段階データ拡張手法を提案する。
データ拡張の第1段階は、データ拡張と偽画像の生成という古典的なアプローチを適用している。
第2レベルのデータ拡張では、ベクトル空間におけるオーバーサンプリングアルゴリズムによって、特徴空間における合成的な追加サンプリングが採用されている。
論文 参考訳(メタデータ) (2020-10-18T15:44:45Z) - Temperate Fish Detection and Classification: a Deep Learning based
Approach [6.282069822653608]
本研究では,2段階の深層学習手法を提案する。
最初のステップは、種や性別によらず、画像中の各魚を検出することです。
第2のステップでは、画像中の各魚を事前フィルタリングせずに分類するために、Squeeze-and-Excitation (SE)アーキテクチャを備えた畳み込みニューラルネットワーク(CNN)を採用する。
論文 参考訳(メタデータ) (2020-05-14T12:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。