論文の概要: Rethinking complex-valued deep neural networks for monaural speech
enhancement
- arxiv url: http://arxiv.org/abs/2301.04320v1
- Date: Wed, 11 Jan 2023 05:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 18:05:06.570460
- Title: Rethinking complex-valued deep neural networks for monaural speech
enhancement
- Title(参考訳): モノーラル音声強調のための複素値深層ニューラルネットワークの再考
- Authors: Haibin Wu, Ke Tan, Buye Xu, Anurag Kumar, Daniel Wong
- Abstract要約: 複素数値深部ニューラルネットワーク(DNN)は、モノラル音声強調のための実値よりも性能が向上しないことを示す。
また,複素数値演算を用いることで,モデルサイズが小さい場合のモデルキャパシティを損なうことも判明した。
- 参考スコア(独自算出の注目度): 22.033822936410246
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Despite multiple efforts made towards adopting complex-valued deep neural
networks (DNNs), it remains an open question whether complex-valued DNNs are
generally more effective than real-valued DNNs for monaural speech enhancement.
This work is devoted to presenting a critical assessment by systematically
examining complex-valued DNNs against their real-valued counterparts.
Specifically, we investigate complex-valued DNN atomic units, including linear
layers, convolutional layers, long short-term memory (LSTM), and gated linear
units. By comparing complex- and real-valued versions of fundamental building
blocks in the recently developed gated convolutional recurrent network (GCRN),
we show how different mechanisms for basic blocks affect the performance. We
also find that the use of complex-valued operations hinders the model capacity
when the model size is small. In addition, we examine two recent complex-valued
DNNs, i.e. deep complex convolutional recurrent network (DCCRN) and deep
complex U-Net (DCUNET). Evaluation results show that both DNNs produce
identical performance to their real-valued counterparts while requiring much
more computation. Based on these comprehensive comparisons, we conclude that
complex-valued DNNs do not provide a performance gain over their real-valued
counterparts for monaural speech enhancement, and thus are less desirable due
to their higher computational costs.
- Abstract(参考訳): 複雑な価値を持つディープニューラルネットワーク(DNN)の採用に向けた複数の取り組みにもかかわらず、複雑な価値を持つDNNが、モノラルな音声強調のための実価値を持つDNNよりも一般的に有効であるかどうかには疑問が残る。
本研究は, 複合価値DNNと実価値DNNとを体系的に検討し, 批判的評価を行うものである。
具体的には、線形層、畳み込み層、長い短期記憶(LSTM)、ゲート線形単位を含む複素数値DNN原子単位について検討する。
最近開発されたGCRN(gate convolutional Recurrent Network)において,基本ブロックの複合的および実数値的バージョンを比較することにより,基本ブロックの異なる機構が性能に与える影響を示す。
また,複素数値演算を用いることで,モデルサイズが小さい場合のモデルキャパシティを損なうことも判明した。
さらに,最近の複素値dnn,すなわちdccrn(deep complex convolutional recurrent network)とdcunet(deep complex u-net)について検討した。
評価の結果,両DNNは実測値と同等の性能を示し,計算量を大きく増やすことができた。
これらの包括的比較から、複素数値dnnは実数値の音声強調に対して性能向上を提供しておらず、計算コストが高いため望ましくないと結論づけた。
関連論文リスト
- Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Ultra-compact Binary Neural Networks for Human Activity Recognition on
RISC-V Processors [10.195581493173643]
HAR(Human Activity Recognition)は、多くのモバイルアプリケーションにおいて、関連する推論タスクである。
本稿では、ディープニューラルネットワークに基づくHARの新たな実装と、BNN(Binary Neural Networks)の高精度な実装を提案する。
BNNはビット演算をビット演算に置き換えたことにより、メモリフットプリントが非常に小さく、推論の複雑さが低い。
論文 参考訳(メタデータ) (2022-05-25T13:52:35Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Spiking Neural Networks with Single-Spike Temporal-Coded Neurons for
Network Intrusion Detection [6.980076213134383]
スパイキングニューラルネット(SNN)は、その強い生物楽観性と高いエネルギー効率のために興味深い。
しかし、その性能は従来のディープニューラルネットワーク(DNN)よりもはるかに遅れている。
論文 参考訳(メタデータ) (2020-10-15T14:46:18Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。