論文の概要: Multi-channel U-Net for Music Source Separation
- arxiv url: http://arxiv.org/abs/2003.10414v3
- Date: Fri, 4 Sep 2020 13:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:49:16.728914
- Title: Multi-channel U-Net for Music Source Separation
- Title(参考訳): 音楽音源分離用マルチチャネルu-net
- Authors: Venkatesh S. Kadandale, Juan F. Montesinos, Gloria Haro, Emilia
G\'omez
- Abstract要約: 条件付きU-Net(C-U-Net)は、マルチソース分離のための単一のモデルをトレーニングするための制御機構を使用する。
重み付きマルチタスク損失を用いたマルチチャネルU-Net(M-U-Net)を提案する。
- 参考スコア(独自算出の注目度): 3.814858728853163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fairly straightforward approach for music source separation is to train
independent models, wherein each model is dedicated for estimating only a
specific source. Training a single model to estimate multiple sources generally
does not perform as well as the independent dedicated models. However,
Conditioned U-Net (C-U-Net) uses a control mechanism to train a single model
for multi-source separation and attempts to achieve a performance comparable to
that of the dedicated models. We propose a multi-channel U-Net (M-U-Net)
trained using a weighted multi-task loss as an alternative to the C-U-Net. We
investigate two weighting strategies for our multi-task loss: 1) Dynamic
Weighted Average (DWA), and 2) Energy Based Weighting (EBW). DWA determines the
weights by tracking the rate of change of loss of each task during training.
EBW aims to neutralize the effect of the training bias arising from the
difference in energy levels of each of the sources in a mixture. Our methods
provide three-fold advantages compared to C-UNet: 1) Fewer effective training
iterations per epoch, 2) Fewer trainable network parameters (no control
parameters), and 3) Faster processing at inference. Our methods achieve
performance comparable to that of C-U-Net and the dedicated U-Nets at a much
lower training cost.
- Abstract(参考訳): 音楽ソース分離のためのかなり単純なアプローチは、独立したモデルをトレーニングすることであり、それぞれのモデルは特定のソースのみを推定するために専用である。
単一のモデルをトレーニングして複数のソースを推定することは、独立した専用モデルよりも一般的には機能しない。
しかし、Conditioned U-Net(C-U-Net)は、マルチソース分離のために単一のモデルをトレーニングするための制御機構を使用し、専用モデルのそれと同等のパフォーマンスを達成する。
C-U-Netの代替として重み付きマルチタスク損失を用いたマルチチャネルU-Net(M-U-Net)を提案する。
マルチタスク損失に対する重み付け戦略を2つ検討した。
1)動的重み付き平均値(DWA)と
2)エネルギベースの重み付け(ebw)。
DWAは、トレーニング中の各タスクの損失率の変化を追跡することで重みを決定する。
ebwは、混合中の各ソースのエネルギーレベルの違いから生じるトレーニングバイアスの効果を中和することを目的としている。
C-UNetに比べて3倍の利点がある。
1)エポック毎の効果的なトレーニングイテレーションが少ない。
2)学習可能なネットワークパラメータ(制御パラメータなし)の削減、及び
3) 推論処理の高速化。
提案手法は,C-U-Netや専用U-Netに匹敵する性能をトレーニングコストで達成する。
関連論文リスト
- Distilling from Similar Tasks for Transfer Learning on a Budget [38.998980344852846]
転送学習は、ラベルの少ないトレーニングに有効なソリューションであるが、大きなベースモデルの計算的にコストのかかる微調整を犠牲にすることがしばしばある。
本稿では,半教師付きクロスドメイン蒸留による計算と精度のトレードオフを軽減することを提案する。
我々の手法は、ソースデータにアクセスする必要はなく、単にソースモデルの機能や擬似ラベルが必要なだけである。
論文 参考訳(メタデータ) (2023-04-24T17:59:01Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - Conv-NILM-Net, a causal and multi-appliance model for energy source
separation [1.1355370218310157]
非侵入負荷モニタリングは、個々のアプライアンス電力使用量を単一のアグリゲーション測定から推定することでエネルギーを節約しようとする。
NILM問題を解決するために、ディープニューラルネットワークがますます人気になっている。
本稿では、エンドツーエンドNILMのための完全な畳み込みフレームワークであるConv-NILM-netを提案する。
論文 参考訳(メタデータ) (2022-08-03T15:59:32Z) - Diverse Weight Averaging for Out-of-Distribution Generalization [100.22155775568761]
単走ではなく、複数の独立したトレーニングランから得られる平均重量について、Diverse Weight Averaging (DiWA)を提案する。
DiWAは、推論オーバーヘッドなしに競合するDomainBedベンチマークのテクニックの状態を継続的に改善します。
論文 参考訳(メタデータ) (2022-05-19T17:44:22Z) - Controllable Dynamic Multi-Task Architectures [92.74372912009127]
本稿では,そのアーキテクチャと重みを動的に調整し,所望のタスク選択とリソース制約に適合させる制御可能なマルチタスクネットワークを提案する。
本稿では,タスク親和性と分岐正規化損失を利用した2つのハイパーネットの非交互トレーニングを提案し,入力の嗜好を取り入れ,適応重み付き木構造モデルを予測する。
論文 参考訳(メタデータ) (2022-03-28T17:56:40Z) - Simultaneous Training of Partially Masked Neural Networks [67.19481956584465]
トレーニングされたフルネットワークから事前定義された'コア'サブネットワークを分割して,優れたパフォーマンスでニューラルネットワークをトレーニングすることが可能であることを示す。
低ランクコアを用いたトランスフォーマーのトレーニングは,低ランクモデル単独のトレーニングよりも優れた性能を有する低ランクモデルが得られることを示す。
論文 参考訳(メタデータ) (2021-06-16T15:57:51Z) - MutualNet: Adaptive ConvNet via Mutual Learning from Different Model
Configurations [51.85020143716815]
MutualNetは、リソース制約の多様なセットで実行できる単一のネットワークを訓練するために提案します。
提案手法は,様々なネットワーク幅と入力解像度を持つモデル構成のコホートを訓練する。
MutualNetは、さまざまなネットワーク構造に適用できる一般的なトレーニング方法論です。
論文 参考訳(メタデータ) (2021-05-14T22:30:13Z) - Rethinking Importance Weighting for Deep Learning under Distribution
Shift [86.52964129830706]
トレーニングデータ分布がテストと異なる分散シフト(DS)では、DSを2つの別々のステップで処理する重要重み付け(IW)が強力なテクニックである。
本稿では、IWを再考し、それが円形依存に苦しむことを理論的に示す。
本稿では、WEとWCを反復し、それらをシームレスに組み合わせたエンドツーエンドの動的IWを提案する。
論文 参考訳(メタデータ) (2020-06-08T15:03:40Z) - Dynamic Task Weighting Methods for Multi-task Networks in Autonomous
Driving Systems [10.625400639764734]
ディープマルチタスクネットワークは、自動運転システムに特に関心がある。
進化的メタラーニングとタスクベースの選択的バックプロパゲーションを組み合わせた新しい手法を提案する。
提案手法は,2タスクアプリケーションにおいて,最先端の手法よりも有意差がある。
論文 参考訳(メタデータ) (2020-01-07T18:54:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。