論文の概要: Modelling Animal Biodiversity Using Acoustic Monitoring and Deep
Learning
- arxiv url: http://arxiv.org/abs/2103.07276v1
- Date: Fri, 12 Mar 2021 13:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 16:42:54.573168
- Title: Modelling Animal Biodiversity Using Acoustic Monitoring and Deep
Learning
- Title(参考訳): 音響モニタリングと深層学習を用いた動物生物多様性のモデル化
- Authors: C. Chalmers, P.Fergus, S. Wich and S. N. Longmore
- Abstract要約: 本稿では,機械学習の最先端技術を用いて,時系列音声信号から特徴を自動的に抽出する手法について概説する。
得られた鳥の歌はメル周波数ケプストラム(MFC)を用いて処理され、後に多層パーセプトロン(MLP)を用いて分類される特徴を抽出する。
提案手法は感度0.74,特異度0.92,精度0.74で有望な結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For centuries researchers have used sound to monitor and study wildlife.
Traditionally, conservationists have identified species by ear; however, it is
now common to deploy audio recording technology to monitor animal and ecosystem
sounds. Animals use sound for communication, mating, navigation and territorial
defence. Animal sounds provide valuable information and help conservationists
to quantify biodiversity. Acoustic monitoring has grown in popularity due to
the availability of diverse sensor types which include camera traps, portable
acoustic sensors, passive acoustic sensors, and even smartphones. Passive
acoustic sensors are easy to deploy and can be left running for long durations
to provide insights on habitat and the sounds made by animals and illegal
activity. While this technology brings enormous benefits, the amount of data
that is generated makes processing a time-consuming process for
conservationists. Consequently, there is interest among conservationists to
automatically process acoustic data to help speed up biodiversity assessments.
Processing these large data sources and extracting relevant sounds from
background noise introduces significant challenges. In this paper we outline an
approach for achieving this using state of the art in machine learning to
automatically extract features from time-series audio signals and modelling
deep learning models to classify different bird species based on the sounds
they make. The acquired bird songs are processed using mel-frequency cepstrum
(MFC) to extract features which are later classified using a multilayer
perceptron (MLP). Our proposed method achieved promising results with 0.74
sensitivity, 0.92 specificity and an accuracy of 0.74.
- Abstract(参考訳): 何世紀にもわたって、研究者は野生動物の監視と研究に音を使用しています。
伝統的に、保全主義者は種を耳で識別してきたが、現在では動物や生態系の音を監視するために音声記録技術を導入するのが一般的である。
動物は通信、交尾、航行、領土防衛に音を使う。
動物の音は貴重な情報を提供し、生物多様性の定量化に役立つ。
カメラトラップ、ポータブル音響センサー、受動的音響センサー、スマートフォンなど、多様なセンサータイプが利用可能になったことで、音響モニタリングの人気が高まっている。
受動的音響センサーは展開が容易で、環境や動物による音や違法な活動についての洞察を提供するため、長時間走行することができる。
この技術は大きなメリットをもたらしますが、生成されるデータ量によって、処理は保存主義者にとって時間がかかります。
その結果,生物多様性評価の迅速化を支援するために,音響データを自動処理することに関心がある。
これらの大きなデータソースを処理し、バックグラウンドノイズから関連する音を抽出することは、大きな課題です。
本稿では,機械学習の最先端技術を用いて,時系列音声信号から特徴を自動的に抽出し,深層学習モデルをモデル化し,音に基づいて異なる鳥種を分類する手法について概説する。
獲得した鳥の歌はメル周波数ケプストラム(mfc)を用いて処理され、後に多層パーセプトロン(mlp)によって分類される特徴を抽出する。
提案手法は感度0.74,特異度0.92,精度0.74で有望な結果を得た。
関連論文リスト
- Generalization in birdsong classification: impact of transfer learning methods and dataset characteristics [2.6740633963478095]
大規模な鳥音分類における伝達学習の有効性について検討する。
実験により, 微調整蒸留と知識蒸留の双方で高い性能が得られた。
動物音コミュニティにおけるより包括的なラベリングの実践を提唱する。
論文 参考訳(メタデータ) (2024-09-21T11:33:12Z) - ActiveRIR: Active Audio-Visual Exploration for Acoustic Environment Modeling [57.1025908604556]
環境音響モデルは、室内環境の物理的特性によって音がどのように変換されるかを表す。
本研究では,非マップ環境の環境音響モデルを効率的に構築する新しい課題であるアクティブ音響サンプリングを提案する。
我々は,音声・視覚センサストリームからの情報を利用してエージェントナビゲーションを誘導し,最適な音響データサンプリング位置を決定する強化学習ポリシーであるActiveRIRを紹介する。
論文 参考訳(メタデータ) (2024-04-24T21:30:01Z) - Exploring Meta Information for Audio-based Zero-shot Bird Classification [113.17261694996051]
本研究では,メタ情報を用いてゼロショット音声分類を改善する方法について検討する。
我々は,多種多様なメタデータが利用可能であることから,鳥種を例として用いている。
論文 参考訳(メタデータ) (2023-09-15T13:50:16Z) - Active Bird2Vec: Towards End-to-End Bird Sound Monitoring with
Transformers [2.404305970432934]
自己教師付き(SSL)と深層能動学習(DAL)を組み合わせた鳥音モニタリングにおけるエンドツーエンド学習へのシフトを提案する。
我々は,従来のスペクトログラム変換をバイパスし,直接生音声処理を実現することを目的としている。
論文 参考訳(メタデータ) (2023-08-14T13:06:10Z) - Transferable Models for Bioacoustics with Human Language Supervision [0.0]
BioLingualは、対照的な言語-オーディオ事前学習に基づくバイオ音響学の新しいモデルである。
分類群にまたがる1000種以上の呼び出しを識別し、完全なバイオ音響タスクをゼロショットで実行し、自然のテキストクエリから動物の発声記録を検索する。
論文 参考訳(メタデータ) (2023-08-09T14:22:18Z) - Few-shot Long-Tailed Bird Audio Recognition [3.8073142980733]
本研究では,音環境記録を解析するための音響検出・分類パイプラインを提案する。
私たちのソリューションは、Kaggleで開催されたBirdCLEF 2022 Challengeで、807チームの18位を獲得しました。
論文 参考訳(メタデータ) (2022-06-22T04:14:25Z) - Fish sounds: towards the evaluation of marine acoustic biodiversity
through data-driven audio source separation [1.9116784879310027]
海洋生態系は、生物多様性の喪失や熱帯種の温帯盆地への移動など、危機的な速度で変化している。
海洋生物多様性をモニタリングするための最もポピュラーで効果的な方法の1つは、パッシブ・アコースティックス・モニタリング(PAM)である。
本研究では,PAM録音における魚の発声を自動的に抽出する手法について述べる。
論文 参考訳(メタデータ) (2022-01-13T14:57:34Z) - Seeing biodiversity: perspectives in machine learning for wildlife
conservation [49.15793025634011]
機械学習は、野生生物種の理解、モニタリング能力、保存性を高めるために、この分析的な課題を満たすことができると我々は主張する。
本質的に、新しい機械学習アプローチとエコロジー分野の知識を組み合わせることで、動物生態学者は現代のセンサー技術が生み出すデータの豊富さを生かすことができる。
論文 参考訳(メタデータ) (2021-10-25T13:40:36Z) - Cetacean Translation Initiative: a roadmap to deciphering the
communication of sperm whales [97.41394631426678]
最近の研究では、非ヒト種における音響コミュニケーションを分析するための機械学習ツールの約束を示した。
マッコウクジラの大量生物音響データの収集と処理に必要な重要な要素について概説する。
開発された技術能力は、非人間コミュニケーションと動物行動研究を研究する幅広いコミュニティにおいて、クロス応用と進歩をもたらす可能性が高い。
論文 参考訳(メタデータ) (2021-04-17T18:39:22Z) - Discriminative Singular Spectrum Classifier with Applications on
Bioacoustic Signal Recognition [67.4171845020675]
分析や分類に有用な特徴を効率的に抽出する識別機構を備えた生体音響信号分類器を提案する。
タスク指向の現在のバイオ音響認識法とは異なり、提案モデルは入力信号をベクトル部分空間に変換することに依存する。
提案法の有効性は,アヌラン,ミツバチ,蚊の3種の生物音響データを用いて検証した。
論文 参考訳(メタデータ) (2021-03-18T11:01:21Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。