論文の概要: Investigation of Densely Connected Convolutional Networks with Domain
Adversarial Learning for Noise Robust Speech Recognition
- arxiv url: http://arxiv.org/abs/2112.10108v1
- Date: Sun, 19 Dec 2021 10:29:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 06:43:02.823551
- Title: Investigation of Densely Connected Convolutional Networks with Domain
Adversarial Learning for Noise Robust Speech Recognition
- Title(参考訳): 雑音ロバスト音声認識のためのドメイン逆学習を用いた密結合畳み込みネットワークの検討
- Authors: Chia Yu Li and Ngoc Thang Vu
- Abstract要約: 本研究では,高密度接続型畳み込みネットワーク(DenseNets)とその拡張性について検討した。
DenseNetは、非常に深くてコンパクトな畳み込みニューラルネットワークであり、コンピュータビジョンの最先端の結果よりも驚くほど改善されている。
- 参考スコア(独自算出の注目度): 41.88097793717185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate densely connected convolutional networks (DenseNets) and their
extension with domain adversarial training for noise robust speech recognition.
DenseNets are very deep, compact convolutional neural networks which have
demonstrated incredible improvements over the state-of-the-art results in
computer vision. Our experimental results reveal that DenseNets are more robust
against noise than other neural network based models such as deep feed forward
neural networks and convolutional neural networks. Moreover, domain adversarial
learning can further improve the robustness of DenseNets against both, known
and unknown noise conditions.
- Abstract(参考訳): 雑音にロバストな音声認識のためのドメイン・コンボリューション・トレーニングにより,密結合畳み込み畳み込みネットワーク(densenets)とその拡張について検討した。
DenseNetは、非常に深くてコンパクトな畳み込みニューラルネットワークであり、コンピュータビジョンの最先端の結果よりも驚くほど改善されている。
実験の結果,ディープフィードフォワードニューラルネットワークや畳み込みニューラルネットワークなど,他のニューラルネットワークモデルよりも高密度ネットワークは雑音に対して頑健であることが判明した。
さらに、ドメイン敵対学習は、既知のノイズ条件と未知のノイズ条件の両方に対して、DenseNetsの堅牢性をさらに向上させることができる。
関連論文リスト
- Spiking Generative Adversarial Network with Attention Scoring Decoding [4.5727987473456055]
スパイクニューラルネットワークは、脳のような処理に近づいた近似を提供する。
我々は複雑な画像を扱うことができるスパイク生成対向ネットワークを構築した。
論文 参考訳(メタデータ) (2023-05-17T14:35:45Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Stochastic resonance neurons in artificial neural networks [0.0]
アーキテクチャの固有部分として共鳴を用いた新しいタイプのニューラルネットワークを提案する。
このようなニューラルネットワークは、ノイズの影響に対してより堅牢であることを示す。
論文 参考訳(メタデータ) (2022-05-06T18:42:36Z) - Noise mitigation strategies in physical feedforward neural networks [0.0]
物理ニューラルネットワークは、次世代人工知能ハードウェアの候補候補として期待されている。
我々は、接続トポロジ、ゴーストニューロン、およびノイズ緩和戦略としてプールを導入する。
本研究は,MNIST手書き桁を分類する完全トレーニングニューラルネットワークに基づく組み合わせ手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-04-20T13:51:46Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Provable Regret Bounds for Deep Online Learning and Control [77.77295247296041]
我々は、損失関数がニューラルネットワークのパラメータを最適化するために適応できることを示し、後から最も優れたネットと競合することを示す。
オンライン設定におけるこれらの結果の適用として、オンライン制御コントローラの証明可能なバウンダリを得る。
論文 参考訳(メタデータ) (2021-10-15T02:13:48Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - Understanding and mitigating noise in trained deep neural networks [0.0]
学習された完全連結層における雑音性非線形ニューロンからなるディープニューラルネットワークにおける雑音の伝搬について検討した。
ノイズ蓄積は一般に束縛されており、追加のネットワーク層を追加しても信号の雑音比が限界を超えないことがわかった。
我々は、ノイズ耐性を持つ新しいニューラルネットワークハードウェアを設計できる基準を特定した。
論文 参考訳(メタデータ) (2021-03-12T17:16:26Z) - ResiliNet: Failure-Resilient Inference in Distributed Neural Networks [56.255913459850674]
ResiliNetは、分散ニューラルネットワークにおいて物理ノード障害に耐性を持たせるためのスキームである。
Failoutは、ドロップアウトを使用したトレーニング中の物理ノード障害条件をシミュレートし、分散ニューラルネットワークのレジリエンスを改善するように設計されている。
論文 参考訳(メタデータ) (2020-02-18T05:58:24Z) - Noisy Machines: Understanding Noisy Neural Networks and Enhancing
Robustness to Analog Hardware Errors Using Distillation [12.30062870698165]
ノイズの多いニューラルネットワークが、入力と出力の相互情報を失うことによって、学習能力を減らしたことを示す。
そこで本研究では,学習中に知識蒸留とノイズ注入を併用して,より高ノイズロバストなネットワークを実現することを提案する。
提案手法は,従来の最良試行の2倍の耐雑音性を有するモデルを実現する。
論文 参考訳(メタデータ) (2020-01-14T18:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。