論文の概要: Attention is All You Need in Speech Separation
- arxiv url: http://arxiv.org/abs/2010.13154v2
- Date: Mon, 8 Mar 2021 21:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 05:14:57.668854
- Title: Attention is All You Need in Speech Separation
- Title(参考訳): 注意は音声分離に必要なのは
- Authors: Cem Subakan, Mirco Ravanelli, Samuele Cornell, Mirko Bronzi, Jianyuan
Zhong
- Abstract要約: 音声分離のための新しいRNNフリートランスフォーマーベースニューラルネットワークを提案する。
提案モデルは標準的なWSJ0-2/3mixデータセット上での最先端(SOTA)性能を実現する。
- 参考スコア(独自算出の注目度): 12.57578429586883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent Neural Networks (RNNs) have long been the dominant architecture in
sequence-to-sequence learning. RNNs, however, are inherently sequential models
that do not allow parallelization of their computations. Transformers are
emerging as a natural alternative to standard RNNs, replacing recurrent
computations with a multi-head attention mechanism. In this paper, we propose
the SepFormer, a novel RNN-free Transformer-based neural network for speech
separation. The SepFormer learns short and long-term dependencies with a
multi-scale approach that employs transformers. The proposed model achieves
state-of-the-art (SOTA) performance on the standard WSJ0-2/3mix datasets. It
reaches an SI-SNRi of 22.3 dB on WSJ0-2mix and an SI-SNRi of 19.5 dB on
WSJ0-3mix. The SepFormer inherits the parallelization advantages of
Transformers and achieves a competitive performance even when downsampling the
encoded representation by a factor of 8. It is thus significantly faster and it
is less memory-demanding than the latest speech separation systems with
comparable performance.
- Abstract(参考訳): リカレントニューラルネットワーク(recurrent neural networks, rnns)は、シーケンスからシーケンスへの学習において、長い間支配的なアーキテクチャであった。
しかし、RNNは本質的に計算の並列化を許さないシーケンシャルモデルである。
トランスフォーマーは、リカレント計算をマルチヘッドアテンション機構に置き換え、標準RNNの自然な代替品として登場しつつある。
本稿では,音声分離のための新しいRNNフリートランスフォーマーベースニューラルネットワークであるSepFormerを提案する。
sepformerは、トランスフォーマーを使用するマルチスケールアプローチで、短期および長期の依存関係を学習する。
提案モデルは標準的なWSJ0-2/3mixデータセット上での最先端(SOTA)性能を実現する。
WSJ0-2mixでは22.3dBのSI-SNRi、WSJ0-3mixでは19.5dBのSI-SNRiに達する。
sepformerはトランスフォーマの並列化の利点を継承し、符号化された表現を8倍ダウンサンプリングしても競合性能を達成する。
したがって、パフォーマンスが同等の最新の音声分離システムよりも大幅に高速であり、メモリ要求が少ない。
関連論文リスト
- Were RNNs All We Needed? [53.393497486332]
従来のリカレントニューラルネットワーク(RNN)を10年以上前から再検討しています。
入力から隠れた状態依存を取り除くことで、LSTMやGRUはBPTTを必要とせず、並列で効率的に訓練できることを示す。
論文 参考訳(メタデータ) (2024-10-02T03:06:49Z) - Attention as an RNN [66.5420926480473]
我々は,そのテキストマンディ・ツー・ワンのRNN出力を効率的に計算できる特別なリカレントニューラルネットワーク(RNN)として注目されることを示す。
本稿では,並列プレフィックススキャンアルゴリズムを用いて,注目のテキストマンディ・ツー・マニーRNN出力を効率よく計算する手法を提案する。
Aarensは、一般的な4つのシーケンシャルな問題設定に散らばる38ドルのデータセットで、Transformersに匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-22T19:45:01Z) - RWKV: Reinventing RNNs for the Transformer Era [54.716108899349614]
本稿では,変換器の効率的な並列化学習とRNNの効率的な推論を組み合わせた新しいモデルアーキテクチャを提案する。
モデルを最大14億のパラメータにスケールし、トレーニングされたRNNの中では最大で、同じサイズのTransformerと同等のRWKVのパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2023-05-22T13:57:41Z) - Resource-Efficient Separation Transformer [14.666016177212837]
本稿では,トランスフォーマーを用いた音声分離手法について,計算コストの削減による検討を行う。
私たちの主な貢献は、自己注意に基づくアーキテクチャであるResource-Efficient separation Transformer (RE-SepFormer)の開発です。
RE-SepFormerは、一般的なWSJ0-2MixとWHAM!データセットにおいて、因果設定と非因果設定の両方で競合するパフォーマンスに達する。
論文 参考訳(メタデータ) (2022-06-19T23:37:24Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Conformer: Convolution-augmented Transformer for Speech Recognition [60.119604551507805]
最近、トランスフォーマーと畳み込みニューラルネットワーク(CNN)に基づくモデルが、自動音声認識(ASR)の有望な結果を示している。
音声認識のための畳み込み拡張変換器,Conformerを提案する。
広く使われているLibriSpeechベンチマークでは、言語モデルを用いずにWERが2.1%/4.3%、テスト/テストの外部言語モデルで1.9%/3.9%を達成した。
論文 参考訳(メタデータ) (2020-05-16T20:56:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。