論文の概要: Source Separation-based Data Augmentation for Improved Joint Beat and
Downbeat Tracking
- arxiv url: http://arxiv.org/abs/2106.08703v1
- Date: Wed, 16 Jun 2021 11:09:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:07:08.093206
- Title: Source Separation-based Data Augmentation for Improved Joint Beat and
Downbeat Tracking
- Title(参考訳): 音源分離に基づくジョイントビートとダウンビート追跡の改善のためのデータ拡張
- Authors: Ching-Yu Chiu, Joann Ching, Wen-Yi Hsiao, Yu-Hua Chen, Alvin Wen-Yu
Su, and Yi-Hsuan Yang
- Abstract要約: 本研究では、ブラインドドラム分離モデルを用いて、各訓練音声信号からドラムと非ドラム音を分離することを提案する。
提案手法の有効性を検証するために, 完全に見えない4つのテストセットについて実験を行った。
- 参考スコア(独自算出の注目度): 33.05612957858605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to advances in deep learning, the performance of automatic beat and
downbeat tracking in musical audio signals has seen great improvement in recent
years. In training such deep learning based models, data augmentation has been
found an important technique. However, existing data augmentation methods for
this task mainly target at balancing the distribution of the training data with
respect to their tempo. In this paper, we investigate another approach for data
augmentation, to account for the composition of the training data in terms of
the percussive and non-percussive sound sources. Specifically, we propose to
employ a blind drum separation model to segregate the drum and non-drum sounds
from each training audio signal, filtering out training signals that are
drumless, and then use the obtained drum and non-drum stems to augment the
training data. We report experiments on four completely unseen test sets,
validating the effectiveness of the proposed method, and accordingly the
importance of drum sound composition in the training data for beat and downbeat
tracking.
- Abstract(参考訳): 近年,深層学習の進歩により,音楽信号における自動ビートとダウンビート追跡の性能が向上している。
このような深層学習に基づくモデルのトレーニングにおいて、データ拡張は重要なテクニックであることがわかった。
しかし,既存のデータ拡張手法は主に,トレーニングデータのテンポに対する分布のバランスをとることを目的としている。
本稿では,データ拡張のための別のアプローチとして,知覚的および非知覚的音源のトレーニングデータの構成について検討する。
具体的には、各訓練音声信号からドラム音と非ドラム音を分離し、無ドラム音の訓練信号をフィルタリングし、得られたドラム音と非ドラム音の茎を用いて訓練データを強化するブラインドドラム分離モデルを提案する。
提案手法の有効性を検証し,ビート・ダウンビート追跡のための訓練データにおけるドラム構成の重要性を検証した。
関連論文リスト
- Deep learning-based shot-domain seismic deblending [1.6411821807321063]
我々は,各帆行の最後に獲得した未完成のショットコレクションを利用する。
これらのデータを手動でブレンドすることで、地上の真実をうまく制御したトレーニングデータが得られる。
隣接するブレンドショット集合を含むマルチチャネル入力を用いてディープニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2024-09-13T07:32:31Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - A Data-Driven Analysis of Robust Automatic Piano Transcription [16.686703489636734]
近年の進歩は、より正確なシステムを生み出すために、新しいニューラルネットワークアーキテクチャを適用することに焦点を当てている。
トレーニングデータの音響特性に対して,これらのモデルが非常に過度に適合することを示す。
トレーニングデータを見ることなく,MAPSデータセット上で88.4F1スコアの最先端のノートオンセット精度を実現する。
論文 参考訳(メタデータ) (2024-02-02T14:11:23Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - On-the-fly Denoising for Data Augmentation in Natural Language
Understanding [101.46848743193358]
よりクリーンなオリジナルデータに基づいて訓練された有機教師モデルによって提供されるソフトな拡張ラベルから学習する,データ拡張のためのオンザフライデノケーション手法を提案する。
本手法は,一般的な拡張手法に適用でき,テキスト分類と質問応答の両タスクの性能を一貫して向上させることができる。
論文 参考訳(メタデータ) (2022-12-20T18:58:33Z) - SingAug: Data Augmentation for Singing Voice Synthesis with
Cycle-consistent Training Strategy [69.24683717901262]
深層学習に基づく歌唱音声合成システム(SVS)は、より優れた品質の歌唱を柔軟に生成することが実証されている。
本研究では,SVSシステムのトレーニングを促進するために,さまざまなデータ拡張手法について検討する。
トレーニングをさらに安定させるために,サイクル一貫性トレーニング戦略を導入する。
論文 参考訳(メタデータ) (2022-03-31T12:50:10Z) - Cross-Referencing Self-Training Network for Sound Event Detection in
Audio Mixtures [23.568610919253352]
本稿では,教師なしデータから擬似ラベルを生成するための半教師付き手法を提案する。
DESEDデータベースの「検証」と「公開評価」の双方に関するこれらの手法の結果は、半教師あり学習における最先端技術システムと比較して著しく改善された。
論文 参考訳(メタデータ) (2021-05-27T18:46:59Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - Mixing-Specific Data Augmentation Techniques for Improved Blind
Violin/Piano Source Separation [29.956390660450484]
ブラインド音源の分離は、音楽情報検索と信号処理のコミュニティの両方で広く研究されている。
教師付きモデルトレーニングに利用可能なマルチトラックデータがないことに対処するため, 人工混合物を作成するデータ拡張法が近年, 有用であることが示されている。
本稿では,現代音楽制作ルーチンにおけるより洗練されたミキシング設定,トラック間の関係,沈黙の要因について考察する。
論文 参考訳(メタデータ) (2020-08-06T07:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。