論文の概要: Depthwise Separable Convolutions Versus Recurrent Neural Networks for
Monaural Singing Voice Separation
- arxiv url: http://arxiv.org/abs/2007.02683v1
- Date: Mon, 6 Jul 2020 12:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 03:29:27.401495
- Title: Depthwise Separable Convolutions Versus Recurrent Neural Networks for
Monaural Singing Voice Separation
- Title(参考訳): モノーラル歌声分離のための奥行き分離可能な畳み込みと再帰ニューラルネットワーク
- Authors: Pyry Pyykk\"onen and Styliannos I. Mimilakis and Konstantinos Drossos
and Tuomas Virtanen
- Abstract要約: 我々は歌声分離に重点を置き、RNNアーキテクチャを採用し、RNNをDWS畳み込み(DWS-CNN)に置き換える。
本稿では,DWS-CNNのチャネル数と層数による音源分離性能への影響について検討する。
その結果、RNNをDWS-CNNに置き換えることで、RNNアーキテクチャのパラメータの20.57%しか使用せず、それぞれ1.20、0.06、0.37dBの改善が得られることがわかった。
- 参考スコア(独自算出の注目度): 17.358040670413505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent approaches for music source separation are almost exclusively based on
deep neural networks, mostly employing recurrent neural networks (RNNs).
Although RNNs are in many cases superior than other types of deep neural
networks for sequence processing, they are known to have specific difficulties
in training and parallelization, especially for the typically long sequences
encountered in music source separation. In this paper we present a use-case of
replacing RNNs with depth-wise separable (DWS) convolutions, which are a
lightweight and faster variant of the typical convolutions. We focus on singing
voice separation, employing an RNN architecture, and we replace the RNNs with
DWS convolutions (DWS-CNNs). We conduct an ablation study and examine the
effect of the number of channels and layers of DWS-CNNs on the source
separation performance, by utilizing the standard metrics of
signal-to-artifacts, signal-to-interference, and signal-to-distortion ratio.
Our results show that by replacing RNNs with DWS-CNNs yields an improvement of
1.20, 0.06, 0.37 dB, respectively, while using only 20.57% of the amount of
parameters of the RNN architecture.
- Abstract(参考訳): 最近の音源分離のアプローチは、主にリカレントニューラルネットワーク(RNN)を用いて、ディープニューラルネットワークのみに基づいている。
RNNは、多くの場合、シーケンス処理の他のタイプのディープニューラルネットワークよりも優れているが、特に音楽ソース分離で発生する典型的な長いシーケンスにおいて、トレーニングと並列化において特に困難であることが知られている。
本稿では,典型的な畳み込みの軽量かつ高速な変種である深さ分離型畳み込み(dws)にrnnを置き換えるユースケースを提案する。
我々は歌声分離に重点を置き、RNNアーキテクチャを採用し、RNNをDWS畳み込み(DWS-CNN)に置き換える。
本稿では,DWS-CNNのチャネル数と層数が音源分離性能に及ぼす影響を,信号対人工物,信号対干渉,信号対歪比の標準指標を用いて検討する。
その結果、RNNをDWS-CNNに置き換えることで、RNNアーキテクチャのパラメータの20.57%しか使用せず、それぞれ1.20、0.06、0.37dBの改善が得られることがわかった。
関連論文リスト
- Investigating Sparsity in Recurrent Neural Networks [0.0]
本論文は, プルーニングとスパースリカレントニューラルネットワークがRNNの性能に与える影響を考察することに焦点を当てる。
まず,RNNの刈り込み,RNNの性能への影響,および刈り込み後の精度回復に必要な訓練エポック数について述べる。
次に、スパースリカレントニューラルネットワークの作成と訓練を継続し、その基礎となる任意の構造の性能とグラフ特性の関係を同定する。
論文 参考訳(メタデータ) (2024-07-30T07:24:58Z) - Accurate Mapping of RNNs on Neuromorphic Hardware with Adaptive Spiking Neurons [2.9410174624086025]
我々は、SigmaDelta$-low-pass RNN(lpRNN)を、レートベースのRNNをスパイクニューラルネットワーク(SNN)にマッピングするために提示する。
適応スパイキングニューロンモデルは、$SigmaDelta$-modulationを使って信号を符号化し、正確なマッピングを可能にする。
我々は、Intelのニューロモルフィック研究チップLoihiにおけるlpRNNの実装を実演する。
論文 参考訳(メタデータ) (2024-07-18T14:06:07Z) - Spiking Neural Network Decision Feedback Equalization [70.3497683558609]
決定フィードバック等化器(DFE)に似たフィードバック構造を持つSNNベースの等化器を提案する。
提案手法は,3種類の模範チャネルに対して,従来の線形等化器よりも明らかに優れていることを示す。
決定フィードバック構造を持つSNNは、競合エネルギー効率の良いトランシーバへのパスを可能にする。
論文 参考訳(メタデータ) (2022-11-09T09:19:15Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing [74.31472195046099]
我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-03-11T15:55:34Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Exploring Pre-training with Alignments for RNN Transducer based
End-to-End Speech Recognition [39.497407288772386]
リカレントニューラルネットワークトランスデューサ(RNN-T)アーキテクチャは、エンドツーエンドの自動音声認識研究において、新たなトレンドとなっている。
本研究では、外部アライメントを活用してRNN-Tモデルをシードする。
エンコーダ事前学習(encoder pre-training)と全ネットワーク事前学習( whole-network pre-training)と呼ばれる2つの異なる事前学習ソリューションが検討されている。
論文 参考訳(メタデータ) (2020-05-01T19:00:57Z) - Sound Event Detection with Depthwise Separable and Dilated Convolutions [23.104644393058123]
最先端音事象検出(SED)法は通常、入力された音声信号から有用な特徴を抽出するために一連の畳み込みニューラルネットワーク(CNN)を用いる。
本稿では,CNNを深く分離可能な畳み込みに置き換えることと,RNNを拡張畳み込みに置き換えることを提案する。
平均フレーム単位のF1スコアと平均エラー率をそれぞれ4.6%、平均エラー率を3.8%向上させる。
論文 参考訳(メタデータ) (2020-02-02T19:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。