論文の概要: Mixing-Specific Data Augmentation Techniques for Improved Blind
Violin/Piano Source Separation
- arxiv url: http://arxiv.org/abs/2008.02480v1
- Date: Thu, 6 Aug 2020 07:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 08:05:00.090993
- Title: Mixing-Specific Data Augmentation Techniques for Improved Blind
Violin/Piano Source Separation
- Title(参考訳): ブラインドバイオリン/ピアノ音源分離のための混合特異的データ拡張技術
- Authors: Ching-Yu Chiu, Wen-Yi Hsiao, Yin-Cheng Yeh, Yi-Hsuan Yang, Alvin
Wen-Yu Su
- Abstract要約: ブラインド音源の分離は、音楽情報検索と信号処理のコミュニティの両方で広く研究されている。
教師付きモデルトレーニングに利用可能なマルチトラックデータがないことに対処するため, 人工混合物を作成するデータ拡張法が近年, 有用であることが示されている。
本稿では,現代音楽制作ルーチンにおけるより洗練されたミキシング設定,トラック間の関係,沈黙の要因について考察する。
- 参考スコア(独自算出の注目度): 29.956390660450484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Blind music source separation has been a popular and active subject of
research in both the music information retrieval and signal processing
communities. To counter the lack of available multi-track data for supervised
model training, a data augmentation method that creates artificial mixtures by
combining tracks from different songs has been shown useful in recent works.
Following this light, we examine further in this paper extended data
augmentation methods that consider more sophisticated mixing settings employed
in the modern music production routine, the relationship between the tracks to
be combined, and factors of silence. As a case study, we consider the
separation of violin and piano tracks in a violin piano ensemble, evaluating
the performance in terms of common metrics, namely SDR, SIR, and SAR. In
addition to examining the effectiveness of these new data augmentation methods,
we also study the influence of the amount of training data. Our evaluation
shows that the proposed mixing-specific data augmentation methods can help
improve the performance of a deep learning-based model for source separation,
especially in the case of small training data.
- Abstract(参考訳): ブラインド音源の分離は、音楽情報検索と信号処理コミュニティの両方において、ポピュラーで活発な研究対象となっている。
教師付きモデルトレーニングに利用可能なマルチトラックデータがないことに対処するため, 異なる曲のトラックを組み合わせて人工ミックスを生成するデータ拡張法が近年, 有用であることが示されている。
そこで本稿では,現代音楽制作ルーチンで使用されるより洗練されたミキシング設定,組み合わせるべきトラック間の関係,沈黙の要因を考慮したデータ拡張手法について検討する。
ケーススタディとして,ピアノ協奏曲におけるヴァイオリンとピアノのトラックの分離について考察し,SDR,SIR,SARといった一般的な測定値を用いて評価を行った。
これらの新たなデータ拡張手法の有効性を検討するとともに、トレーニングデータの量の影響についても検討する。
提案手法は,特に小規模トレーニングデータの場合において,深層学習に基づくソース分離モデルの性能向上に寄与することを示す。
関連論文リスト
- Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Investigating Personalization Methods in Text to Music Generation [21.71190700761388]
コンピュータビジョン領域の最近の進歩に触発されて、事前学習されたテキスト・オーディオ・ディフューザと2つの確立されたパーソナライズ手法の組み合わせを初めて検討した。
評価のために,プロンプトと音楽クリップを用いた新しいデータセットを構築した。
分析の結果、類似度指標はユーザの好みに応じており、現在のパーソナライズアプローチでは、メロディよりもリズム音楽の構成を学習しやすい傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-09-20T08:36:34Z) - Self-supervised Auxiliary Loss for Metric Learning in Music
Similarity-based Retrieval and Auto-tagging [0.0]
類似性に基づく検索課題に対処するために,自己教師付き学習アプローチに基づくモデルを提案する。
また, 微調整期間中の増員を控えることで, 良好な結果が得られた。
論文 参考訳(メタデータ) (2023-04-15T02:00:28Z) - PartMix: Regularization Strategy to Learn Part Discovery for
Visible-Infrared Person Re-identification [76.40417061480564]
本稿では、パートベース可視赤外線人物再識別(VI-ReID)モデルに対して、PartMixと呼ばれる新しいデータ拡張手法を提案する。
部分記述子をモダリティに混合することにより、拡張サンプルを合成し、パートベースVI-ReIDモデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-04-04T05:21:23Z) - Music Instrument Classification Reprogrammed [79.68916470119743]
プログラム」とは、事前学習されたモデルの入力と出力の両方を修正・マッピングすることで、もともと異なるタスクをターゲットにした、事前学習された深層・複雑なニューラルネットワークを利用する手法である。
本研究では,異なるタスクで学習した表現のパワーを効果的に活用できることを実証し,結果として得られた再プログラムシステムは,訓練パラメータのごく一部で,同等あるいはそれ以上の性能を持つシステムでも実行可能であることを実証する。
論文 参考訳(メタデータ) (2022-11-15T18:26:01Z) - Improved singing voice separation with chromagram-based pitch-aware
remixing [26.299721372221736]
高いピッチアライメントを持つ音楽セグメントを混合したクロマグラムベースのピッチ認識リミックスを提案する。
我々は、ピッチ認識リミックスによるトレーニングモデルにより、テスト信号-歪み比(SDR)が大幅に改善されることを実証した。
論文 参考訳(メタデータ) (2022-03-28T20:55:54Z) - Source Separation-based Data Augmentation for Improved Joint Beat and
Downbeat Tracking [33.05612957858605]
本研究では、ブラインドドラム分離モデルを用いて、各訓練音声信号からドラムと非ドラム音を分離することを提案する。
提案手法の有効性を検証するために, 完全に見えない4つのテストセットについて実験を行った。
論文 参考訳(メタデータ) (2021-06-16T11:09:05Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - Multitask learning for instrument activation aware music source
separation [83.30944624666839]
本稿では,楽器のアクティベーション情報を用いて音源分離性能を向上させるための新しいマルチタスク構造を提案する。
MUSDBデータセットに含まれる3つの楽器よりも現実的なシナリオである6つの独立した楽器について,本システムについて検討する。
その結果,提案したマルチタスクモデルは,Mixing SecretsとMedleyDBデータセットを混合したベースラインのOpen-Unmixモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-03T02:35:00Z) - dMelodies: A Music Dataset for Disentanglement Learning [70.90415511736089]
我々は、研究者が様々な領域でアルゴリズムの有効性を実証するのに役立つ新しいシンボリック・ミュージック・データセットを提案する。
これはまた、音楽用に特別に設計されたアルゴリズムを評価する手段を提供する。
データセットは、遠絡学習のためのディープネットワークのトレーニングとテストに十分な大きさ(約13万データポイント)である。
論文 参考訳(メタデータ) (2020-07-29T19:20:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。