論文の概要: Incremental Learning Algorithm for Sound Event Detection
- arxiv url: http://arxiv.org/abs/2003.12175v1
- Date: Thu, 26 Mar 2020 22:32:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 22:15:11.150979
- Title: Incremental Learning Algorithm for Sound Event Detection
- Title(参考訳): 音イベント検出のためのインクリメンタル学習アルゴリズム
- Authors: Eunjeong Koh, Fatemeh Saki, Yinyi Guo, Cheng-Yu Hung, Erik Visser
- Abstract要約: 本稿では,事前学習したモデルから新たなターゲットモデルへの知識移行の問題に対処するため,音事象検出システム(SED)の新たな学習戦略を提案する。
学習済みの知識をソースモデルからターゲットモデルに移行するために、ソースモデルのトップにニューラルアダプタが使用される。
ニューラルアダプタ層は、トレーニングデータを最小限にして新たな音イベントを学習し、ソースモデルと同様の学習済みの音イベントの性能を維持することを目標モデルに促す。
- 参考スコア(独自算出の注目度): 0.8399688944263841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a new learning strategy for the Sound Event Detection
(SED) system to tackle the issues of i) knowledge migration from a pre-trained
model to a new target model and ii) learning new sound events without
forgetting the previously learned ones without re-training from scratch. In
order to migrate the previously learned knowledge from the source model to the
target one, a neural adapter is employed on the top of the source model. The
source model and the target model are merged via this neural adapter layer. The
neural adapter layer facilitates the target model to learn new sound events
with minimal training data and maintaining the performance of the previously
learned sound events similar to the source model. Our extensive analysis on the
DCASE16 and US-SED dataset reveals the effectiveness of the proposed method in
transferring knowledge between source and target models without introducing any
performance degradation on the previously learned sound events while obtaining
a competitive detection performance on the newly learned sound events.
- Abstract(参考訳): 本稿では,音イベント検出(sed)システムのための新しい学習戦略を提案する。
一 事前訓練されたモデルから新しいターゲットモデルへの知識の移転及び
二 学習したことを忘れずに新しい音のイベントを学習し、ゼロから再学習すること。
学習済みの知識をソースモデルからターゲットモデルに移行するために、ソースモデルの上にニューラルネットワークアダプタが使用される。
ソースモデルとターゲットモデルは、このニューラルネットワークアダプタ層を介してマージされる。
ニューラルアダプタ層は、ターゲットモデルが最小限のトレーニングデータで新しいサウンドイベントを学習し、ソースモデルに似た学習済みサウンドイベントのパフォーマンスを維持するように支援する。
dcase16とus-sedデータセットの広範な解析により,新たに学習した音響イベントに対する競合検出性能を得るとともに,学習した音響イベントに性能劣化を生じさせることなく,音源と対象モデル間の知識伝達における提案手法の有効性が明らかになった。
関連論文リスト
- Transfer Learning for Passive Sonar Classification using Pre-trained Audio and ImageNet Models [39.85805843651649]
本研究では,事前学習型Audio Neural Networks(PANNs)とImageNet事前学習型モデルを比較した。
また, 受動的ソナー分類において, ImageNet事前学習モデルの方が若干優れていた。
論文 参考訳(メタデータ) (2024-09-20T20:13:45Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - BSDP: Brain-inspired Streaming Dual-level Perturbations for Online Open
World Object Detection [31.467501311528498]
私たちは、深層学習モデルを、人々の学習方法をシミュレートすることを目指しています。
既存のOWODアプローチは未知のカテゴリの同定に注意を払う一方で、漸進的な学習も非常に重要である。
本稿では,古い知識を忘れることなく,新しい知識を学習しやすくするために,古いサンプルの二重レベル情報を新しいサンプルの摂動として捉えた。
論文 参考訳(メタデータ) (2024-03-05T04:00:50Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - DiffSED: Sound Event Detection with Denoising Diffusion [70.18051526555512]
生成学習の観点からSED問題を再構築する。
具体的には,騒音拡散過程において,雑音のある提案から音の時間境界を生成することを目的としている。
トレーニング中は,ノイズの多い遅延クエリを基本バージョンに変換することで,ノイズ発生過程の逆転を学習する。
論文 参考訳(メタデータ) (2023-08-14T17:29:41Z) - Low-Resource Music Genre Classification with Cross-Modal Neural Model
Reprogramming [129.4950757742912]
ニューラルモデル再プログラミング(NMR)の概念に基づく低リソース(音楽)分類のための事前学習モデルを活用する新しい手法を提案する。
NMRは、凍結した事前学習モデルの入力を変更することにより、ソースドメインからターゲットドメインへの事前学習モデルの再取得を目指している。
実験結果から,大規模データセットに事前学習したニューラルモデルは,この再プログラミング手法を用いて,音楽ジャンルの分類に成功できることが示唆された。
論文 参考訳(メタデータ) (2022-11-02T17:38:33Z) - Matching Text and Audio Embeddings: Exploring Transfer-learning
Strategies for Language-based Audio Retrieval [11.161404854726348]
本稿では,クロスモーダル(テキスト・トゥ・オーディオ)検索に用いる大規模事前学習モデルの解析を行う。
我々は、これらのモデルから抽出された埋め込みをメトリクス学習フレームワークで使用し、一致するオーディオとテキストのペアを接続する。
論文 参考訳(メタデータ) (2022-10-06T11:45:14Z) - Hub-Pathway: Transfer Learning from A Hub of Pre-trained Models [89.44031286278347]
本稿では,モデルハブからの知識伝達を可能にするハブパスウェイフレームワークを提案する。
提案するフレームワークは、目的のタスク固有の損失でエンドツーエンドにトレーニングすることができる。
コンピュータビジョンおよび強化学習タスクの実験結果は、このフレームワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-06-08T08:00:12Z) - Two-Level Residual Distillation based Triple Network for Incremental
Object Detection [21.725878050355824]
本稿では,より高速なR-CNNに基づく新しいインクリメンタルオブジェクト検出手法を提案する。
従来の学習知識を忘れることなく、新しいクラスでの漸進的なモデル学習を支援するためのアシスタントとして、古いモデルと残留モデルを使用する三重ネットワークである。
論文 参考訳(メタデータ) (2020-07-27T11:04:57Z) - Active Learning for Sound Event Detection [18.750572243562576]
本稿では,音事象検出(SED)のための能動的学習システムを提案する。
本研究の目的は,学習したSEDモデルの精度を限定的なアノテーションで最大化することである。
注目すべきは、ターゲット音イベントが稀なデータセットにおいて、必要なアノテーションの労力を大幅に削減できることだ。
論文 参考訳(メタデータ) (2020-02-12T14:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。