論文の概要: Deep Active Audio Feature Learning in Resource-Constrained Environments
- arxiv url: http://arxiv.org/abs/2308.13201v1
- Date: Fri, 25 Aug 2023 06:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 15:03:35.287753
- Title: Deep Active Audio Feature Learning in Resource-Constrained Environments
- Title(参考訳): 資源制約環境における深部アクティブ音声特徴学習
- Authors: Md Mohaimenuzzaman, Christoph Bergmeir and Bernd Meyer
- Abstract要約: ラベル付きデータの不足により、バイオ音響アプリケーションにおけるDeep Neural Network(DNN)モデルのトレーニングが困難になる。
アクティブラーニング(AL)は、ラベル付けの労力をほとんど必要とせず、この学習を支援するアプローチである。
本稿では,ALループに特徴抽出を組み込んだALフレームワークについて述べる。
- 参考スコア(独自算出の注目度): 4.258703386469646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The scarcity of labelled data makes training Deep Neural Network (DNN) models
in bioacoustic applications challenging. In typical bioacoustics applications,
manually labelling the required amount of data can be prohibitively expensive.
To effectively identify both new and current classes, DNN models must continue
to learn new features from a modest amount of fresh data. Active Learning (AL)
is an approach that can help with this learning while requiring little
labelling effort. Nevertheless, the use of fixed feature extraction approaches
limits feature quality, resulting in underutilization of the benefits of AL. We
describe an AL framework that addresses this issue by incorporating feature
extraction into the AL loop and refining the feature extractor after each round
of manual annotation. In addition, we use raw audio processing rather than
spectrograms, which is a novel approach. Experiments reveal that the proposed
AL framework requires 14.3%, 66.7%, and 47.4% less labelling effort on
benchmark audio datasets ESC-50, UrbanSound8k, and InsectWingBeat,
respectively, for a large DNN model and similar savings on a
microcontroller-based counterpart. Furthermore, we showcase the practical
relevance of our study by incorporating data from conservation biology
projects.
- Abstract(参考訳): ラベル付きデータの不足により、バイオ音響アプリケーションにおけるDeep Neural Network(DNN)モデルのトレーニングが困難になる。
一般的なバイオ音響アプリケーションでは、必要な量のデータを手動でラベル付けすることは、非常に高価である。
新しいクラスと現在のクラスの両方を効果的に識別するには、DNNモデルは控えめな量の新しいデータから新しい機能を学習し続けなければならない。
アクティブラーニング(AL)は、ラベリングをほとんど必要とせず、この学習を支援するアプローチである。
それでも、固定的な特徴抽出アプローチは特徴品質を制限し、ALの利点を未利用にする。
本稿では,alループに特徴抽出機能を組み込んで,手動アノテーションのラウンド毎に特徴抽出器を精錬することにより,この問題に対処したalフレームワークについて述べる。
さらに,新しいアプローチであるスペクトログラムではなく,生のオーディオ処理を用いる。
実験により、提案されたalフレームワークは、ベンチマークオーディオデータセットesc-50、urbansound8k、petitwingbeatに対して14.3%、66.7%、47.4%のラベリング労力をそれぞれ削減し、大きなdnnモデルとマイクロコントローラベースのモデルで同様の節約を必要とすることが明らかになった。
さらに,保全生物学プロジェクトからのデータを活用することで,本研究の実践的妥当性を示す。
関連論文リスト
- Self-supervised Learning for Acoustic Few-Shot Classification [10.180992026994739]
我々は、CNNに基づく前処理と状態空間モデル(SSM)に基づく特徴抽出を組み合わせた新しいアーキテクチャを導入、評価する。
実際のタスクデータに対するコントラスト学習と,それに続くラベル付きデータによる微調整を用いて,このアーキテクチャを事前学習する。
本評価は, 数発の分類問題において, 最先端のアーキテクチャよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-09-15T07:45:11Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - DIRECT: Deep Active Learning under Imbalance and Label Noise [15.571923343398657]
我々は,クラス不均衡とラベルノイズの両面において,アクティブラーニングの最初の研究を行う。
本稿では,クラス分離閾値を頑健に同定し,最も不確実な例を注釈する新しいアルゴリズムを提案する。
以上の結果から,DIRECTは最先端のアクティブ学習アルゴリズムと比較して,アノテーション予算の60%以上を節約できることが示された。
論文 参考訳(メタデータ) (2023-12-14T18:18:34Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - An Empirical Study on Noisy Label Learning for Program Understanding [22.81028693504839]
本稿では,プログラム理解データセットの深層学習における雑音ラベル学習の有効性について検討する。
我々は,プログラム分類,脆弱性検出,コード要約という3つのタスクにおいて,様々なNLLアプローチとディープラーニングモデルを評価する。
我々の発見は、プログラム理解におけるNLLの能力に関する洞察を与え、ソフトウェアエンジニアリングデータセットのノイズに対処する将来の作業に光を当てることができると信じています。
論文 参考訳(メタデータ) (2023-07-18T06:04:20Z) - MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - Is margin all you need? An extensive empirical study of active learning
on tabular data [66.18464006872345]
我々は,OpenML-CC18ベンチマークを用いて,69の実世界のデータセット上での各種能動学習アルゴリズムの性能を解析した。
意外なことに、古典的なマージンサンプリング技術は、現在の最先端技術を含む、他のすべてのものよりも優れている。
論文 参考訳(メタデータ) (2022-10-07T21:18:24Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - Robust Meta-learning with Sampling Noise and Label Noise via
Eigen-Reptile [78.1212767880785]
Meta-learnerは、利用可能なサンプルがわずかしかないため、過度に適合する傾向がある。
ノイズの多いラベルでデータを扱う場合、メタラーナーはラベルノイズに対して非常に敏感になる可能性がある。
本稿では,タスク固有のパラメータの主要な方向でメタパラメータを更新するEigen-Reptile(ER)を提案する。
論文 参考訳(メタデータ) (2022-06-04T08:48:02Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Active Learning at the ImageNet Scale [43.595076693347835]
本研究では,画像ネット上でのアクティブラーニング(AL)と事前学習(SSP)の組み合わせについて検討する。
学習者が選択したクラス不均衡なサンプルから,小型の玩具データセットのパフォーマンスがImageNetのパフォーマンスを表すものではないことが判明した。
本稿では、ランダムサンプリングを一貫して上回る、単純でスケーラブルなALアルゴリズムであるBa balanced Selection (BASE)を提案する。
論文 参考訳(メタデータ) (2021-11-25T02:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。