論文の概要: Semi-supervised classification of bird vocalizations
- arxiv url: http://arxiv.org/abs/2502.13440v1
- Date: Wed, 19 Feb 2025 05:31:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 20:12:09.853145
- Title: Semi-supervised classification of bird vocalizations
- Title(参考訳): 鳥類発声の半教師付き分類
- Authors: Simen Hexeberg, Mandar Chitre, Matthias Hoffmann-Kuhnt, Bing Wen Low,
- Abstract要約: 鳥類の個体数の変化は生態系の広範な変化を示す可能性がある。
時間重なり合う鳴き声を検出するための半教師付き音響鳥検知器を提案する。
平均F0.5スコアは315のクラスで0.701で、110種の鳥類をホールドアウトテストセットで記録する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Changes in bird populations can indicate broader changes in ecosystems, making birds one of the most important animal groups to monitor. Combining machine learning and passive acoustics enables continuous monitoring over extended periods without direct human involvement. However, most existing techniques require extensive expert-labeled datasets for training and cannot easily detect time-overlapping calls in busy soundscapes. We propose a semi-supervised acoustic bird detector designed to allow both the detection of time-overlapping calls (when separated in frequency) and the use of few labeled training samples. The classifier is trained and evaluated on a combination of community-recorded open-source data and long-duration soundscape recordings from Singapore. It achieves a mean F0.5 score of 0.701 across 315 classes from 110 bird species on a hold-out test set, with an average of 11 labeled training samples per class. It outperforms the state-of-the-art BirdNET classifier on a test set of 103 bird species despite significantly fewer labeled training samples. The detector is further tested on 144 microphone-hours of continuous soundscape data. The rich soundscape in Singapore makes suppression of false positives a challenge on raw, continuous data streams. Nevertheless, we demonstrate that achieving high precision in such environments with minimal labeled training data is possible.
- Abstract(参考訳): 鳥類の個体数の変化は生態系の広範な変化を示し、鳥類を監視すべき最も重要な動物群の一つにしている。
機械学習と受動的音響を組み合わせることで、人間の直接の関与なしに、長期間にわたって継続的に監視することができる。
しかし、既存のほとんどの技術では、トレーニングのために広範囲のエキスパートラベル付きデータセットを必要としており、忙しいサウンドスケープにおける時間重なり合う呼び出しを検出できない。
本稿では,時間重なり合う鳴き声を検出できる半教師付き音響鳥検知器と,ラベル付きトレーニングサンプルの少ない使用法を提案する。
この分類器は、シンガポールのコミュニティ記録されたオープンソースデータと長期のサウンドスケープ記録の組み合わせで訓練され、評価される。
平均F0.5スコアは、110種の鳥類から315のクラスで0.701点に達し、平均11個のトレーニングサンプルがクラスごとにラベル付けされている。
これは、ラベル付きトレーニングサンプルが著しく少ないにもかかわらず、103種の鳥のテストセットで最先端のBirdNET分類器を上回っている。
検出器はさらに144マイクロフォン時間連続音速データでテストされる。
シンガポールの豊かなサウンドスケープは、偽陽性の抑制を生のデータストリームに挑戦している。
それにもかかわらず、ラベル付きトレーニングデータが少ない環境での高精度化が可能であることを実証する。
関連論文リスト
- ECOSoundSet: a finely annotated dataset for the automated acoustic identification of Orthoptera and Cicadidae in North, Central and temperate Western Europe [51.82780272068934]
ECOSoundSet (European Cicadidae and Orthoptera Sound dataSet) は,北欧,中央ヨーロッパ,温帯西ヨーロッパに分布する200種,24種(亜種を含む場合,それぞれ217種,26種)から10,653種を収録したデータセットである。
このデータセットは、北ヨーロッパ、中央ヨーロッパ、温帯ヨーロッパにおけるオルソプターとシカダの音響分類のための深層学習アルゴリズムの訓練のために、既にオンラインで入手可能な記録に意味のある補完となる可能性がある。
論文 参考訳(メタデータ) (2025-04-29T13:53:33Z) - Unsupervised outlier detection to improve bird audio dataset labels [0.0]
非標的の鳥類の音は、ラベルノイズと呼ばれる相違点をデータセットにラベル付けする。
本稿では,オーディオ前処理とデメンタリティ低減と教師なし外乱検出を併用したクリーニングプロセスを提案する。
論文 参考訳(メタデータ) (2025-04-25T19:04:40Z) - An Automated Pipeline for Few-Shot Bird Call Classification: A Case Study with the Tooth-Billed Pigeon [0.6282171844772422]
本稿では,BirdNETやPerchのような大規模公開分類器から欠落した希少種を対象としたワンショットバードコール自動分類パイプラインを提案する。
我々は,大型鳥類分類網の埋め込み空間を活用し,コサイン類似性を用いた分類器を開発し,フィルタリングと事前処理技術を組み合わせた。
最終モデルは1.0リコールと0.95の精度で歯を磨いたハトの鳴き声を検知し、現場での使用が現実的になった。
論文 参考訳(メタデータ) (2025-04-22T21:21:41Z) - NBM: an Open Dataset for the Acoustic Monitoring of Nocturnal Migratory Birds in Europe [0.0]
この研究は、西太平洋の117種から13,359種の注釈付き発声を収集した夜行性鳥類移動データセットを提示する。
このデータセットには正確な時間と頻度のアノテーションが含まれており、フランス全土の何十人もの鳥愛好家によって集められている。
特に,音声データの処理に適した2段階の深層物体検出モデルを訓練することにより,本データベースの有用性を実証する。
論文 参考訳(メタデータ) (2024-12-04T18:55:45Z) - AudioProtoPNet: An interpretable deep learning model for bird sound classification [1.49199020343864]
本研究では,マルチラベル鳥の音の分類にPrototypeal Part Network(ProtoPNet)を適応したAudioProtoPNetを紹介する。
これは本質的に解釈可能なモデルであり、埋め込みを抽出するためにConvNeXtのバックボーンを使用する。
このモデルは、9,734種の鳥類と6,800時間以上の録音からなるBirdSetトレーニングデータセットで訓練された。
論文 参考訳(メタデータ) (2024-04-16T09:37:41Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Exploring Meta Information for Audio-based Zero-shot Bird Classification [113.17261694996051]
本研究では,メタ情報を用いてゼロショット音声分類を改善する方法について検討する。
我々は,多種多様なメタデータが利用可能であることから,鳥種を例として用いている。
論文 参考訳(メタデータ) (2023-09-15T13:50:16Z) - Deep object detection for waterbird monitoring using aerial imagery [56.1262568293658]
本研究では,商用ドローンで収集した空中画像を用いて,水鳥の正確な検出,数え,監視に使用できる深層学習パイプラインを提案する。
畳み込み型ニューラルネットワークを用いた物体検出装置を用いて,テキサス沿岸の植民地性営巣島でよく見られる16種類の水鳥を検出できることを示す。
論文 参考訳(メタデータ) (2022-10-10T17:37:56Z) - Label-Noise Learning with Intrinsically Long-Tailed Data [65.41318436799993]
本稿では,本質的な長期データを用いたラベルノイズ学習のための学習フレームワークを提案する。
具体的には, 2段階の2次元試料選択法(TABASCO)を提案する。
論文 参考訳(メタデータ) (2022-08-21T07:47:05Z) - Few-shot Long-Tailed Bird Audio Recognition [3.8073142980733]
本研究では,音環境記録を解析するための音響検出・分類パイプラインを提案する。
私たちのソリューションは、Kaggleで開催されたBirdCLEF 2022 Challengeで、807チームの18位を獲得しました。
論文 参考訳(メタデータ) (2022-06-22T04:14:25Z) - Reliable Label Correction is a Good Booster When Learning with Extremely
Noisy Labels [65.79898033530408]
極音下での学習に明示的に取り組むために,LC-Boosterと呼ばれる新しい枠組みを導入する。
LC-Boosterは、ラベル補正をサンプル選択に組み込むことで、信頼性の高いラベル修正を通じて、より精製されたサンプルをトレーニングに利用することができる。
実験により、LC-Boosterはいくつかのノイズラベルベンチマークで最先端の結果を前進させることが示された。
論文 参考訳(メタデータ) (2022-04-30T07:19:03Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。