論文の概要: Neural Architecture Search for Speech Emotion Recognition
- arxiv url: http://arxiv.org/abs/2203.16928v1
- Date: Thu, 31 Mar 2022 10:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 14:11:57.204076
- Title: Neural Architecture Search for Speech Emotion Recognition
- Title(参考訳): 音声感情認識のためのニューラルアーキテクチャ探索
- Authors: Xixin Wu, Shoukang Hu, Zhiyong Wu, Xunying Liu, Helen Meng
- Abstract要約: 本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 72.1966266171951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have brought significant advancements to speech emotion
recognition (SER). However, the architecture design in SER is mainly based on
expert knowledge and empirical (trial-and-error) evaluations, which is
time-consuming and resource intensive. In this paper, we propose to apply
neural architecture search (NAS) techniques to automatically configure the SER
models. To accelerate the candidate architecture optimization, we propose a
uniform path dropout strategy to encourage all candidate architecture
operations to be equally optimized. Experimental results of two different
neural structures on IEMOCAP show that NAS can improve SER performance (54.89\%
to 56.28\%) while maintaining model parameter sizes. The proposed dropout
strategy also shows superiority over the previous approaches.
- Abstract(参考訳): ディープニューラルネットワークは、音声感情認識(SER)に大きな進歩をもたらした。
しかし、serのアーキテクチャ設計は、主に専門家の知識と経験的(試行錯誤)評価に基づいている。
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
候補アーキテクチャ最適化を加速するため,我々は,すべての候補アーキテクチャ操作を等しく最適化する統一パスドロップアウト戦略を提案する。
IEMOCAP上の2つの異なるニューラルネットワーク構造の実験結果から、NASはモデルパラメータサイズを維持しながらSER性能(54.89\%から56.28\%)を向上させることができる。
提案したドロップアウト戦略は,従来のアプローチよりも優れていた。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [54.99121380536659]
眼球運動バイオメトリックスは、高い安全性の識別により注目されている。
深層学習(DL)モデルは近年,眼球運動認識に成功している。
DLアーキテクチャはまだ人間の事前知識によって決定されている。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Search Space Adaptation for Differentiable Neural Architecture Search in
Image Classification [15.641353388251465]
微分可能なニューラルネットワークサーチ(NAS)は、検索コストを単一のネットワークをトレーニングするレベルに削減することで大きな影響を与える。
本稿では,探索範囲を導入することで,探索空間の適応スキームを提案する。
画像分類タスクにおいて, ProxylessNAS を用いて提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-06-05T05:27:12Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - Learning Interpretable Models Through Multi-Objective Neural
Architecture Search [0.9990687944474739]
本稿では,タスク性能と「イントロスペクタビリティ」の両方を最適化するフレームワークを提案する。
タスクエラーとイントロスペクタビリティを共同で最適化することは、エラー内で実行されるより不整合でデバッグ可能なアーキテクチャをもたらすことを実証する。
論文 参考訳(メタデータ) (2021-12-16T05:50:55Z) - Rethinking Architecture Selection in Differentiable NAS [74.61723678821049]
微分可能なニューラルアーキテクチャ探索は、その探索効率と簡易性において最も人気のあるNAS手法の1つである。
本稿では,各操作がスーパーネットに与える影響を直接測定する摂動に基づくアーキテクチャ選択を提案する。
提案手法により,DARTSの故障モードを大幅に緩和できることがわかった。
論文 参考訳(メタデータ) (2021-08-10T00:53:39Z) - New methods for metastimuli: architecture, embeddings, and neural
network optimization [0.0]
以前に提示された「メタ刺激アーキテクチャ」の6つの重要な新しい方法論の展開が提示されている。
これにはアーキテクチャの革新、リカレント(RNN)人工ニューラルネットワーク(ANN)アプリケーション、さまざまな原子埋め込み技術が含まれる。
ユーザPIMSにおける自動原子分類のためのシステムを使用するテクニックを概説する。
論文 参考訳(メタデータ) (2021-02-14T07:28:40Z) - Interpretable Neural Architecture Search via Bayesian Optimisation with
Weisfeiler-Lehman Kernels [17.945881805452288]
現在のニューラルアーキテクチャサーチ(NAS)戦略は、単一の優れたアーキテクチャを見つけることに集中している。
そこで我々は,Weisfeiler-Lehmanグラフカーネルとガウス過程サロゲートを組み合わせたNASに対するベイズ最適化手法を提案する。
提案手法は,有用なネットワーク特徴とそれに伴うネットワーク性能への影響を発見することによって,解釈可能性を実現する。
論文 参考訳(メタデータ) (2020-06-13T04:10:34Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。