論文の概要: Accounting for Variations in Speech Emotion Recognition with
Nonparametric Hierarchical Neural Network
- arxiv url: http://arxiv.org/abs/2109.04316v1
- Date: Thu, 9 Sep 2021 14:46:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 19:59:38.169527
- Title: Accounting for Variations in Speech Emotion Recognition with
Nonparametric Hierarchical Neural Network
- Title(参考訳): 非パラメトリック階層型ニューラルネットワークによる音声感情認識のばらつきの計算
- Authors: Lance Ying, Amrit Romana, Emily Mower Provost
- Abstract要約: ベイジアン非パラメトリッククラスタリングに基づく軽量階層型ニューラルネットワークモデルを提案する。
我々の実験では、NHNNモデルは、通常、企業内および企業間テストにおいて、同様のレベルの複雑さと最先端モデルでモデルより優れています。
- 参考スコア(独自算出の注目度): 19.795067207465724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, deep-learning-based speech emotion recognition models have
outperformed classical machine learning models. Previously, neural network
designs, such as Multitask Learning, have accounted for variations in emotional
expressions due to demographic and contextual factors. However, existing models
face a few constraints: 1) they rely on a clear definition of domains (e.g.
gender, noise condition, etc.) and the availability of domain labels; 2) they
often attempt to learn domain-invariant features while emotion expressions can
be domain-specific. In the present study, we propose the Nonparametric
Hierarchical Neural Network (NHNN), a lightweight hierarchical neural network
model based on Bayesian nonparametric clustering. In comparison to Multitask
Learning approaches, the proposed model does not require domain/task labels. In
our experiments, the NHNN models generally outperform the models with similar
levels of complexity and state-of-the-art models in within-corpus and
cross-corpus tests. Through clustering analysis, we show that the NHNN models
are able to learn group-specific features and bridge the performance gap
between groups.
- Abstract(参考訳): 近年,ディープラーニングに基づく音声認識モデルは,従来の機械学習モデルよりも優れている。
これまで、マルチタスク学習のようなニューラルネットワークの設計は、人口動態や文脈要因による感情表現の変化を考慮してきた。
しかし、既存のモデルはいくつかの制約に直面している: 1) ドメインを明確に定義する(例えば)。
性別、騒音状態など
2) 感情表現がドメイン固有であるのに対して、ドメイン不変の特徴を学習しようとする場合が多い。
本研究では,ベイズ的非パラメトリッククラスタリングに基づく軽量階層型ニューラルネットワークモデルであるNonparametric Hierarchical Neural Network (NHNN)を提案する。
マルチタスク学習と比較して、提案するモデルはドメイン/タスクラベルを必要としない。
我々の実験では、NHNNモデルは、通常、企業内および企業間テストにおいて、同様のレベルの複雑さと最先端モデルでモデルより優れています。
クラスタリング分析を通じて,nhnnモデルがグループ固有の特徴を学習し,グループ間のパフォーマンスギャップを橋渡しできることを示す。
関連論文リスト
- Cognitive Networks and Performance Drive fMRI-Based State Classification Using DNN Models [0.0]
我々は、個々の認知状態を分類するために、構造的に異なる2つのDNNモデルと相補的なDNNモデルを用いる。
アーキテクチャ上の違いにもかかわらず、両者のモデルが常に予測精度と個人の認知性能との間に堅牢な関係を生んでいることを示す。
論文 参考訳(メタデータ) (2024-08-14T15:25:51Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Analyzing Populations of Neural Networks via Dynamical Model Embedding [10.455447557943463]
ディープニューラルネットワークの解釈における中核的な課題は、同じタスクのためにトレーニングされた異なるネットワークによって実装された基盤となるアルゴリズム間の共通点を特定することである。
この問題に触発されたDYNAMOは,各点がニューラルネットワークモデルに対応する低次元多様体を構築するアルゴリズムであり,対応するニューラルネットワークが同様のハイレベルな計算処理を実行する場合,その近傍に2つの点が存在する。
DYNAMOは、事前訓練されたニューラルネットワークのコレクションを入力として、隠された状態のダイナミクスとコレクション内の任意のモデルの出力をエミュレートするメタモデルを出力する。
論文 参考訳(メタデータ) (2023-02-27T19:00:05Z) - Do Neural Networks Trained with Topological Features Learn Different
Internal Representations? [1.418465438044804]
本研究では、トポロジカルな特徴で訓練されたモデルが、元の生データで学習したモデルと根本的に異なるデータの内部表現を学習するかどうかを検討する。
構造的には、トポロジカルな特徴に基づいて訓練・評価されたモデルの隠れ表現は、対応する生データに基づいて訓練・評価されたモデルと大きく異なることがわかった。
これは、生データに基づいてトレーニングされたニューラルネットワークが、予測を行う過程で限られたトポロジ的特徴を抽出することを意味すると推測する。
論文 参考訳(メタデータ) (2022-11-14T19:19:04Z) - Understanding Domain Learning in Language Models Through Subpopulation
Analysis [35.16003054930906]
現代のニューラルネットワークアーキテクチャにおいて、異なるドメインがどのようにコード化されているかを調べる。
我々は、自然言語領域、モデルサイズ、使用したトレーニングデータ量との関係を分析する。
論文 参考訳(メタデータ) (2022-10-22T21:12:57Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - InClass Nets: Independent Classifier Networks for Nonparametric
Estimation of Conditional Independence Mixture Models and Unsupervised
Classification [0.0]
我々は、独立ニューラルネットワーク(Independent Neural Network, NN)と呼ばれる新しい機械学習ベースのアプローチを導入する。
NNが任意の関数を近似する能力は、我々の手法を非パラメトリックにする。
また,本手法は,教師なし・半教師付き分類問題にも応用できる。
論文 参考訳(メタデータ) (2020-08-31T22:24:09Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。