論文の概要: Multi-channel U-Net for Music Source Separation
- arxiv url: http://arxiv.org/abs/2003.10414v3
- Date: Fri, 4 Sep 2020 13:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:49:16.728914
- Title: Multi-channel U-Net for Music Source Separation
- Title(参考訳): 音楽音源分離用マルチチャネルu-net
- Authors: Venkatesh S. Kadandale, Juan F. Montesinos, Gloria Haro, Emilia
G\'omez
- Abstract要約: 条件付きU-Net(C-U-Net)は、マルチソース分離のための単一のモデルをトレーニングするための制御機構を使用する。
重み付きマルチタスク損失を用いたマルチチャネルU-Net(M-U-Net)を提案する。
- 参考スコア(独自算出の注目度): 3.814858728853163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fairly straightforward approach for music source separation is to train
independent models, wherein each model is dedicated for estimating only a
specific source. Training a single model to estimate multiple sources generally
does not perform as well as the independent dedicated models. However,
Conditioned U-Net (C-U-Net) uses a control mechanism to train a single model
for multi-source separation and attempts to achieve a performance comparable to
that of the dedicated models. We propose a multi-channel U-Net (M-U-Net)
trained using a weighted multi-task loss as an alternative to the C-U-Net. We
investigate two weighting strategies for our multi-task loss: 1) Dynamic
Weighted Average (DWA), and 2) Energy Based Weighting (EBW). DWA determines the
weights by tracking the rate of change of loss of each task during training.
EBW aims to neutralize the effect of the training bias arising from the
difference in energy levels of each of the sources in a mixture. Our methods
provide three-fold advantages compared to C-UNet: 1) Fewer effective training
iterations per epoch, 2) Fewer trainable network parameters (no control
parameters), and 3) Faster processing at inference. Our methods achieve
performance comparable to that of C-U-Net and the dedicated U-Nets at a much
lower training cost.
- Abstract(参考訳): 音楽ソース分離のためのかなり単純なアプローチは、独立したモデルをトレーニングすることであり、それぞれのモデルは特定のソースのみを推定するために専用である。
単一のモデルをトレーニングして複数のソースを推定することは、独立した専用モデルよりも一般的には機能しない。
しかし、Conditioned U-Net(C-U-Net)は、マルチソース分離のために単一のモデルをトレーニングするための制御機構を使用し、専用モデルのそれと同等のパフォーマンスを達成する。
C-U-Netの代替として重み付きマルチタスク損失を用いたマルチチャネルU-Net(M-U-Net)を提案する。
マルチタスク損失に対する重み付け戦略を2つ検討した。
1)動的重み付き平均値(DWA)と
2)エネルギベースの重み付け(ebw)。
DWAは、トレーニング中の各タスクの損失率の変化を追跡することで重みを決定する。
ebwは、混合中の各ソースのエネルギーレベルの違いから生じるトレーニングバイアスの効果を中和することを目的としている。
C-UNetに比べて3倍の利点がある。
1)エポック毎の効果的なトレーニングイテレーションが少ない。
2)学習可能なネットワークパラメータ(制御パラメータなし)の削減、及び
3) 推論処理の高速化。
提案手法は,C-U-Netや専用U-Netに匹敵する性能をトレーニングコストで達成する。
関連論文リスト
- One QuantLLM for ALL: Fine-tuning Quantized LLMs Once for Efficient Deployments [43.107261545706415]
大規模言語モデル(LLM)は急速に進歩しているが、かなりのメモリ需要に直面している。
現在の方法では、量子化損失によるパフォーマンス劣化を軽減するために、通常、長いトレーニングが必要です。
我々は、一度限りのフレームワークを大規模言語モデルに拡張する最初の試みを行っている。
論文 参考訳(メタデータ) (2024-05-30T16:05:15Z) - Efficient Remote Sensing with Harmonized Transfer Learning and Modality Alignment [0.0]
ハーモナイズドトランスファーラーニングとモダリティアライメント(HarMA)は,タスク制約,モダリティアライメント,単一モダリティアライメントを同時に満足する手法である。
HarMAはリモートセンシング分野における2つの一般的なマルチモーダル検索タスクにおいて最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-04-28T17:20:08Z) - Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image Restoration [100.54419875604721]
オールインワン画像復元は、各分解に対してタスク固有の非ジェネリックモデルを持たずに、統一されたモデルで異なるタイプの劣化に対処する。
我々は、オールインワン画像復元タスクのためのエンコーダデコーダ方式で設計されたネットワークの動的ファミリであるDyNetを提案する。
我々のDyNetは、よりバルク化と軽量化をシームレスに切り替えることができるので、効率的なモデルデプロイメントのための柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-02T17:58:49Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Distilling from Similar Tasks for Transfer Learning on a Budget [38.998980344852846]
転送学習は、ラベルの少ないトレーニングに有効なソリューションであるが、大きなベースモデルの計算的にコストのかかる微調整を犠牲にすることがしばしばある。
本稿では,半教師付きクロスドメイン蒸留による計算と精度のトレードオフを軽減することを提案する。
我々の手法は、ソースデータにアクセスする必要はなく、単にソースモデルの機能や擬似ラベルが必要なだけである。
論文 参考訳(メタデータ) (2023-04-24T17:59:01Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - Conv-NILM-Net, a causal and multi-appliance model for energy source
separation [1.1355370218310157]
非侵入負荷モニタリングは、個々のアプライアンス電力使用量を単一のアグリゲーション測定から推定することでエネルギーを節約しようとする。
NILM問題を解決するために、ディープニューラルネットワークがますます人気になっている。
本稿では、エンドツーエンドNILMのための完全な畳み込みフレームワークであるConv-NILM-netを提案する。
論文 参考訳(メタデータ) (2022-08-03T15:59:32Z) - Controllable Dynamic Multi-Task Architectures [92.74372912009127]
本稿では,そのアーキテクチャと重みを動的に調整し,所望のタスク選択とリソース制約に適合させる制御可能なマルチタスクネットワークを提案する。
本稿では,タスク親和性と分岐正規化損失を利用した2つのハイパーネットの非交互トレーニングを提案し,入力の嗜好を取り入れ,適応重み付き木構造モデルを予測する。
論文 参考訳(メタデータ) (2022-03-28T17:56:40Z) - MutualNet: Adaptive ConvNet via Mutual Learning from Different Model
Configurations [51.85020143716815]
MutualNetは、リソース制約の多様なセットで実行できる単一のネットワークを訓練するために提案します。
提案手法は,様々なネットワーク幅と入力解像度を持つモデル構成のコホートを訓練する。
MutualNetは、さまざまなネットワーク構造に適用できる一般的なトレーニング方法論です。
論文 参考訳(メタデータ) (2021-05-14T22:30:13Z) - Rethinking Importance Weighting for Deep Learning under Distribution
Shift [86.52964129830706]
トレーニングデータ分布がテストと異なる分散シフト(DS)では、DSを2つの別々のステップで処理する重要重み付け(IW)が強力なテクニックである。
本稿では、IWを再考し、それが円形依存に苦しむことを理論的に示す。
本稿では、WEとWCを反復し、それらをシームレスに組み合わせたエンドツーエンドの動的IWを提案する。
論文 参考訳(メタデータ) (2020-06-08T15:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。