論文の概要: A Study of Transfer Learning in Music Source Separation
- arxiv url: http://arxiv.org/abs/2010.12650v1
- Date: Fri, 23 Oct 2020 20:29:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 00:11:56.720541
- Title: A Study of Transfer Learning in Music Source Separation
- Title(参考訳): 音楽音源分離における転送学習に関する研究
- Authors: Andreas Bugler, Bryan Pardo, Prem Seetharaman
- Abstract要約: 関連するドメインから学習を移すことが,ディープラーニングシステムの性能向上につながることはよく知られている。
本研究では,事前学習におけるデータ拡張の有効性について検討する。
また、最終目標タスクにおいて、一度事前トレーニングされたモデルがどの程度再トレーニングされなければならないかについても検討する。
- 参考スコア(独自算出の注目度): 12.819592416207728
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Supervised deep learning methods for performing audio source separation can
be very effective in domains where there is a large amount of training data.
While some music domains have enough data suitable for training a separation
system, such as rock and pop genres, many musical domains do not, such as
classical music, choral music, and non-Western music traditions. It is well
known that transferring learning from related domains can result in a
performance boost for deep learning systems, but it is not always clear how
best to do pretraining. In this work we investigate the effectiveness of data
augmentation during pretraining, the impact on performance as a result of
pretraining and downstream datasets having similar content domains, and also
explore how much of a model must be retrained on the final target task, once
pretrained.
- Abstract(参考訳): オーディオソース分離を行うための改良されたディープラーニング手法は、大量のトレーニングデータが存在する領域で非常に効果的である。
一部の音楽ドメインは、ロックやポップのジャンルのような分離システムの訓練に適した十分なデータを持っているが、クラシック音楽、合唱音楽、非西洋音楽の伝統など、多くの音楽ドメインはそうではない。
関連するドメインから学習を移すことは,ディープラーニングシステムの性能向上につながることが知られているが,事前学習の方法が必ずしも明確ではない。
本研究では,事前トレーニング中のデータ拡張の有効性,同じコンテントドメインを持つ前トレーニングおよび下流データセットによるパフォーマンスへの影響について検討するとともに,事前トレーニングされた最終目標タスクにおいて,モデルがどの程度再トレーニングされなければならないかを検討する。
関連論文リスト
- Self-Train Before You Transcribe [3.17829719401032]
本研究では,テスト時間適応手法として,テストセットの録音にうるさわしい教師の訓練を行うことの利点について検討する。
ドメイン内のデータセットとドメイン外のデータセットは、32.2%までの大きな相対的なゲインを示す実験に使用される。
論文 参考訳(メタデータ) (2024-06-17T09:21:00Z) - An Experimental Comparison Of Multi-view Self-supervised Methods For Music Tagging [6.363158395541767]
自己教師付き学習は、大量のラベルのないデータに基づいて、一般化可能な機械学習モデルを事前訓練するための強力な方法として登場した。
本研究では,音楽タギングのための新たな自己指導手法の性能について検討し,比較する。
論文 参考訳(メタデータ) (2024-04-14T07:56:08Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Self-Supervised Contrastive Learning for Robust Audio-Sheet Music
Retrieval Systems [3.997809845676912]
自己指導型コントラスト学習は、実際の音楽コンテンツからの注釈付きデータの不足を軽減することができることを示す。
クロスモーダルなピース識別の高レベルなタスクにスニペットを埋め込む。
本研究では,実際の音楽データが存在する場合,検索品質が30%から100%に向上することが観察された。
論文 参考訳(メタデータ) (2023-09-21T14:54:48Z) - Supervised and Unsupervised Learning of Audio Representations for Music
Understanding [9.239657838690226]
トレーニング済みデータセットのドメインが、ダウンストリームタスクに対するオーディオ埋め込みの結果の妥当性にどのように影響するかを示す。
大規模専門家による注釈付き音楽データセットの教師あり学習により訓練されたモデルが,最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2022-10-07T20:07:35Z) - Learning music audio representations via weak language supervision [14.335950077921435]
我々は,一連のプロキシタスクによって最適化された音楽と言語事前学習(MuLaP)のためのマルチモーダルアーキテクチャを設計する。
弱い監督は、トラックの全体的な音楽内容を伝える、騒々しい自然言語記述の形で提供される。
提案手法の有効性を,同一のオーディオバックボーンが生成する音声表現の性能と,異なる学習戦略とを比較して示す。
論文 参考訳(メタデータ) (2021-12-08T10:30:52Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - Neural Semi-supervised Learning for Text Classification Under
Large-Scale Pretraining [51.19885385587916]
我々は、大規模LM事前学習の文脈下で、テキスト分類タスクにおける半教師あり学習の研究を行う。
我々の研究は、大規模事前学習の文脈下でのセミ教師付き学習モデルの振る舞いを理解するための最初のステップである。
論文 参考訳(メタデータ) (2020-11-17T13:39:05Z) - Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation [69.06413031969674]
Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:06:15Z) - Don't Stop Pretraining: Adapt Language Models to Domains and Tasks [81.99843216550306]
バイオメディカルおよびコンピュータサイエンスの出版物、ニュース、レビュー)と8つの分類タスクについて調査する。
ドメイン内の事前トレーニング(ドメイン適応型事前トレーニング)の第2フェーズでは、パフォーマンスが向上する。
タスクの未ラベルデータ(タスク適応事前トレーニング)に適応することで、ドメイン適応事前トレーニング後のパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-04-23T04:21:19Z) - Are we pretraining it right? Digging deeper into visio-linguistic
pretraining [61.80511482405592]
事前学習データセットドメイン(テキストとビジュアル)と下流ドメインの類似性がパフォーマンスに与える影響について検討する。
意外なことに、下流タスクに近い領域で自動生成されるデータは、"自然な"データよりも事前学習に適している。
これは、最近の多くの取り組みにもかかわらず、ビジョンと言語の事前訓練がまだ“最初から”機能していないことを示唆している。
論文 参考訳(メタデータ) (2020-04-19T01:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。