論文の概要: Mixing-Specific Data Augmentation Techniques for Improved Blind
Violin/Piano Source Separation
- arxiv url: http://arxiv.org/abs/2008.02480v1
- Date: Thu, 6 Aug 2020 07:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 08:05:00.090993
- Title: Mixing-Specific Data Augmentation Techniques for Improved Blind
Violin/Piano Source Separation
- Title(参考訳): ブラインドバイオリン/ピアノ音源分離のための混合特異的データ拡張技術
- Authors: Ching-Yu Chiu, Wen-Yi Hsiao, Yin-Cheng Yeh, Yi-Hsuan Yang, Alvin
Wen-Yu Su
- Abstract要約: ブラインド音源の分離は、音楽情報検索と信号処理のコミュニティの両方で広く研究されている。
教師付きモデルトレーニングに利用可能なマルチトラックデータがないことに対処するため, 人工混合物を作成するデータ拡張法が近年, 有用であることが示されている。
本稿では,現代音楽制作ルーチンにおけるより洗練されたミキシング設定,トラック間の関係,沈黙の要因について考察する。
- 参考スコア(独自算出の注目度): 29.956390660450484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Blind music source separation has been a popular and active subject of
research in both the music information retrieval and signal processing
communities. To counter the lack of available multi-track data for supervised
model training, a data augmentation method that creates artificial mixtures by
combining tracks from different songs has been shown useful in recent works.
Following this light, we examine further in this paper extended data
augmentation methods that consider more sophisticated mixing settings employed
in the modern music production routine, the relationship between the tracks to
be combined, and factors of silence. As a case study, we consider the
separation of violin and piano tracks in a violin piano ensemble, evaluating
the performance in terms of common metrics, namely SDR, SIR, and SAR. In
addition to examining the effectiveness of these new data augmentation methods,
we also study the influence of the amount of training data. Our evaluation
shows that the proposed mixing-specific data augmentation methods can help
improve the performance of a deep learning-based model for source separation,
especially in the case of small training data.
- Abstract(参考訳): ブラインド音源の分離は、音楽情報検索と信号処理コミュニティの両方において、ポピュラーで活発な研究対象となっている。
教師付きモデルトレーニングに利用可能なマルチトラックデータがないことに対処するため, 異なる曲のトラックを組み合わせて人工ミックスを生成するデータ拡張法が近年, 有用であることが示されている。
そこで本稿では,現代音楽制作ルーチンで使用されるより洗練されたミキシング設定,組み合わせるべきトラック間の関係,沈黙の要因を考慮したデータ拡張手法について検討する。
ケーススタディとして,ピアノ協奏曲におけるヴァイオリンとピアノのトラックの分離について考察し,SDR,SIR,SARといった一般的な測定値を用いて評価を行った。
これらの新たなデータ拡張手法の有効性を検討するとともに、トレーニングデータの量の影響についても検討する。
提案手法は,特に小規模トレーニングデータの場合において,深層学習に基づくソース分離モデルの性能向上に寄与することを示す。
関連論文リスト
- Accelerated Stochastic ExtraGradient: Mixing Hessian and Gradient Similarity to Reduce Communication in Distributed and Federated Learning [50.382793324572845]
分散コンピューティングはデバイス間の通信を伴うため、効率性とプライバシという2つの重要な問題を解決する必要がある。
本稿では,データ類似性とクライアントサンプリングのアイデアを取り入れた新しい手法について分析する。
プライバシー問題に対処するために,付加雑音の手法を適用し,提案手法の収束への影響を解析する。
論文 参考訳(メタデータ) (2024-09-22T00:49:10Z) - A Survey on Mixup Augmentations and Beyond [59.578288906956736]
選択したサンプルと対応するラベルを凸的に組み合わせた混合および関連データ混合手法が広く採用されている。
本調査では, 基礎混合法とその応用について概観する。
論文 参考訳(メタデータ) (2024-09-08T19:32:22Z) - Anchor-aware Deep Metric Learning for Audio-visual Retrieval [11.675472891647255]
Metric Learningは、基礎となるデータ構造を捕捉し、オーディオ・ビジュアル・クロスモーダル検索(AV-CMR)のようなタスクの性能を向上させることを目的としている。
近年の研究では、トレーニング中に埋め込み空間から影響のあるデータポイントを選択するためのサンプリング手法が採用されている。
しかし、トレーニングデータポイントの不足のため、モデルトレーニングはスペースを完全に探索することができない。
本稿では,この課題に対処するために,AADML(Anchor-aware Deep Metric Learning)手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T22:44:44Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Investigating Personalization Methods in Text to Music Generation [21.71190700761388]
コンピュータビジョン領域の最近の進歩に触発されて、事前学習されたテキスト・オーディオ・ディフューザと2つの確立されたパーソナライズ手法の組み合わせを初めて検討した。
評価のために,プロンプトと音楽クリップを用いた新しいデータセットを構築した。
分析の結果、類似度指標はユーザの好みに応じており、現在のパーソナライズアプローチでは、メロディよりもリズム音楽の構成を学習しやすい傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-09-20T08:36:34Z) - PartMix: Regularization Strategy to Learn Part Discovery for
Visible-Infrared Person Re-identification [76.40417061480564]
本稿では、パートベース可視赤外線人物再識別(VI-ReID)モデルに対して、PartMixと呼ばれる新しいデータ拡張手法を提案する。
部分記述子をモダリティに混合することにより、拡張サンプルを合成し、パートベースVI-ReIDモデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-04-04T05:21:23Z) - Improved singing voice separation with chromagram-based pitch-aware
remixing [26.299721372221736]
高いピッチアライメントを持つ音楽セグメントを混合したクロマグラムベースのピッチ認識リミックスを提案する。
我々は、ピッチ認識リミックスによるトレーニングモデルにより、テスト信号-歪み比(SDR)が大幅に改善されることを実証した。
論文 参考訳(メタデータ) (2022-03-28T20:55:54Z) - Source Separation-based Data Augmentation for Improved Joint Beat and
Downbeat Tracking [33.05612957858605]
本研究では、ブラインドドラム分離モデルを用いて、各訓練音声信号からドラムと非ドラム音を分離することを提案する。
提案手法の有効性を検証するために, 完全に見えない4つのテストセットについて実験を行った。
論文 参考訳(メタデータ) (2021-06-16T11:09:05Z) - Multitask learning for instrument activation aware music source
separation [83.30944624666839]
本稿では,楽器のアクティベーション情報を用いて音源分離性能を向上させるための新しいマルチタスク構造を提案する。
MUSDBデータセットに含まれる3つの楽器よりも現実的なシナリオである6つの独立した楽器について,本システムについて検討する。
その結果,提案したマルチタスクモデルは,Mixing SecretsとMedleyDBデータセットを混合したベースラインのOpen-Unmixモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-03T02:35:00Z) - dMelodies: A Music Dataset for Disentanglement Learning [70.90415511736089]
我々は、研究者が様々な領域でアルゴリズムの有効性を実証するのに役立つ新しいシンボリック・ミュージック・データセットを提案する。
これはまた、音楽用に特別に設計されたアルゴリズムを評価する手段を提供する。
データセットは、遠絡学習のためのディープネットワークのトレーニングとテストに十分な大きさ(約13万データポイント)である。
論文 参考訳(メタデータ) (2020-07-29T19:20:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。