論文の概要: Data-Efficient Self-Supervised Algorithms for Fine-Grained Birdsong Analysis
- arxiv url: http://arxiv.org/abs/2511.12158v1
- Date: Sat, 15 Nov 2025 11:04:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.645757
- Title: Data-Efficient Self-Supervised Algorithms for Fine-Grained Birdsong Analysis
- Title(参考訳): 細粒化鳥声解析のためのデータ効率の良い自己監督アルゴリズム
- Authors: Houtan Ghaffari, Lukas Rauch, Paul Devos,
- Abstract要約: この研究は、Residual-MLP-RNNと呼ばれる鳥の鳴き声アノテーションのための軽量で高性能なニューラルネットワークアーキテクチャを提供する。
専門的な最小限の労力で、信頼できる深海鳥の音節検出装置を開発するための、堅牢な3段階の訓練パイプラインを提供する。
このデータ効率のアプローチのパフォーマンスは、極端なラベル・スカシティのシナリオにおいて、カナリアの複雑な歌に対して実証される。
- 参考スコア(独自算出の注目度): 2.6084563319562784
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many bioacoustics, neuroscience, and linguistics research utilize birdsongs as proxy models to acquire knowledge in diverse areas. Developing models generally requires precisely annotated data at the level of syllables. Hence, automated and data-efficient methods that reduce annotation costs are in demand. This work presents a lightweight, yet performant neural network architecture for birdsong annotation called Residual-MLP-RNN. Then, it presents a robust three-stage training pipeline for developing reliable deep birdsong syllable detectors with minimal expert labor. The first stage is self-supervised learning from unlabeled data. Two of the most successful pretraining paradigms are explored, namely, masked prediction and online clustering. The second stage is supervised training with effective data augmentations to create a robust model for frame-level syllable detection. The third stage is semi-supervised post-training, which leverages the unlabeled data again. However, unlike the initial phase, this time it is aligned with the downstream task. The performance of this data-efficient approach is demonstrated for the complex song of the Canary in extreme label-scarcity scenarios. Canary has one of the most difficult songs to annotate, which implicitly validates the method for other birds. Finally, the potential of self-supervised embeddings is assessed for linear probing and unsupervised birdsong analysis.
- Abstract(参考訳): 多くの生物音響学、神経科学、言語学の研究は、様々な分野の知識を得るために、鳥の鳴き声をプロキシモデルとして利用している。
モデルの開発には一般的に、音節レベルで正確にアノテートされたデータが必要である。
したがって、アノテーションのコストを削減する自動化およびデータ効率の手法が要求される。
この研究は、Residual-MLP-RNNと呼ばれる鳥の鳴き声アノテーションのための軽量で高性能なニューラルネットワークアーキテクチャを提供する。
そして、専門家の最小限の労力で、信頼できる深海鳥の音節検出装置を開発するための、堅牢な3段階の訓練パイプラインを提供する。
最初の段階はラベルのないデータから自己教師付き学習である。
最も成功した事前学習パラダイムの2つは、マスク付き予測とオンラインクラスタリングである。
第2段階は、フレームレベルの音節検出のための堅牢なモデルを作成するために、効果的なデータ拡張による教師付きトレーニングである。
第3段階は半教師付きポストトレーニングで、ラベルのないデータを再び活用する。
しかし、初期フェーズとは異なり、今回は下流タスクと一致している。
このデータ効率のアプローチは、極端なラベル・スカシティのシナリオにおいて、カナリアの複雑な歌のために実証される。
カナリアはアノテートするのが最も難しい曲の1つを持ち、他の鳥の手法を暗黙的に検証している。
最後に, 自己監督型埋め込みの可能性について, 線形探索および非教師なし鳥類群解析のために評価した。
関連論文リスト
- Identifying birdsong syllables without labelled data [23.41137933942656]
鳥の鳴き声を音節列に分解する,教師なしのアルゴリズムを初めて構築する。
ベンガルのフィンチ曲のデータセットを用いて,人間のラベルに対する自動アノテーションを評価した。
論文 参考訳(メタデータ) (2025-09-22T20:54:37Z) - Effective Data Pruning through Score Extrapolation [40.61665742457229]
少数のデータのみをトレーニングする必要のある,新たな重要スコア外挿フレームワークを導入する。
このフレームワークでは,この最小限のサブセットから学習したパターンを用いて,データセット全体のサンプル重要度を正確に予測する2つの初期アプローチを提案する。
以上の結果から,スコアの補間は,プルーニングやデータ属性,その他のタスクなど,高価なスコア計算手法をスケールする上で有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2025-06-10T17:38:49Z) - An Automated Pipeline for Few-Shot Bird Call Classification: A Case Study with the Tooth-Billed Pigeon [0.6282171844772422]
本稿では,BirdNETやPerchのような大規模公開分類器から欠落した希少種を対象としたワンショットバードコール自動分類パイプラインを提案する。
我々は,大型鳥類分類網の埋め込み空間を活用し,コサイン類似性を用いた分類器を開発し,フィルタリングと事前処理技術を組み合わせた。
最終モデルは1.0リコールと0.95の精度で歯を磨いたハトの鳴き声を検知し、現場での使用が現実的になった。
論文 参考訳(メタデータ) (2025-04-22T21:21:41Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Self-training Improves Pre-training for Natural Language Understanding [63.78927366363178]
我々は、半教師付き学習を通じてラベルのないデータを活用する別の方法として、自己学習について研究する。
本稿では,ラベル付きデータからタスク固有のクエリの埋め込みを計算するデータ拡張手法であるSentAugmentを紹介する。
我々のアプローチは、標準的なテキスト分類ベンチマークで最大2.6%の改善を達成し、スケーラブルで効果的な自己学習に繋がる。
論文 参考訳(メタデータ) (2020-10-05T17:52:25Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。