論文の概要: Meta Transfer Learning for Emotion Recognition
- arxiv url: http://arxiv.org/abs/2006.13211v1
- Date: Tue, 23 Jun 2020 00:25:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 23:28:16.651951
- Title: Meta Transfer Learning for Emotion Recognition
- Title(参考訳): 感情認識のためのメタトランスファー学習
- Authors: Dung Nguyen, Sridha Sridharan, Duc Thanh Nguyen, Simon Denman, David
Dean, Clinton Fookes
- Abstract要約: 本研究では、ある視覚的/聴覚的感情領域から学習した感情知識を、別の視覚的/聴覚的感情領域に伝達できるPathNetに基づく伝達学習手法を提案する。
提案システムは感情認識の性能を向上し,最近提案された微調整/事前学習モデルに基づく伝達学習手法よりも性能が大幅に向上する。
- 参考スコア(独自算出の注目度): 42.61707533351803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has been widely adopted in automatic emotion recognition and
has lead to significant progress in the field. However, due to insufficient
annotated emotion datasets, pre-trained models are limited in their
generalization capability and thus lead to poor performance on novel test sets.
To mitigate this challenge, transfer learning performing fine-tuning on
pre-trained models has been applied. However, the fine-tuned knowledge may
overwrite and/or discard important knowledge learned from pre-trained models.
In this paper, we address this issue by proposing a PathNet-based transfer
learning method that is able to transfer emotional knowledge learned from one
visual/audio emotion domain to another visual/audio emotion domain, and
transfer the emotional knowledge learned from multiple audio emotion domains
into one another to improve overall emotion recognition accuracy. To show the
robustness of our proposed system, various sets of experiments for facial
expression recognition and speech emotion recognition task on three emotion
datasets: SAVEE, EMODB, and eNTERFACE have been carried out. The experimental
results indicate that our proposed system is capable of improving the
performance of emotion recognition, making its performance substantially
superior to the recent proposed fine-tuning/pre-trained models based transfer
learning methods.
- Abstract(参考訳): ディープラーニングは自動感情認識に広く採用されており、この分野でかなりの進歩をもたらしている。
しかし、注釈付き感情データセットが不十分なため、事前学習されたモデルは一般化能力に制限があり、新しいテストセットの性能が低下する。
この課題を軽減するために、事前訓練されたモデルの微調整を行うトランスファーラーニングを適用した。
しかし、微調整された知識は、事前訓練されたモデルから学んだ重要な知識を上書きまたは破棄することができる。
本稿では,視覚/聴覚感情領域から学習した感情知識を他の視覚/聴覚感情領域に伝達し,複数の音声感情領域から学習した感情知識を相互に伝達し,感情認識の精度を向上させるパスネットに基づく伝達学習手法を提案する。
提案するシステムのロバスト性を示すために,save,emodb,enterfaceの3つの感情データセット上で,表情認識と音声感情認識タスクに関する各種実験を行った。
実験の結果,本システムは感情認識の性能を向上でき,最近提案する微調整/事前学習モデルに基づくトランスファー学習法に比べて,その性能が大幅に向上することが示唆された。
関連論文リスト
- Learning Emotion Representations from Verbal and Nonverbal Communication [7.747924294389427]
本稿では,言語・非言語コミュニケーションから視覚的感情表現を抽出する最初の事前学習パラダイムであるEmotionCLIPを提案する。
EmotionCLIPは、感情誘導型コントラスト学習を用いて、主観的文脈エンコーディングと言語感情キューを通じて、非言語感情キューへの参加を誘導する。
EmotionCLIPは、感情理解におけるデータ不足の一般的な問題に対処し、関連する領域の進歩を促進する。
論文 参考訳(メタデータ) (2023-05-22T21:36:55Z) - A cross-corpus study on speech emotion recognition [29.582678406878568]
本研究では,行動感情から学習した情報が,自然感情の検出に有用かどうかを検討する。
成人英語の4つのデータセットは、行動的、誘惑的、自然な感情をカバーしている。
性能劣化を正確に調査するための最先端モデルを提案する。
論文 参考訳(メタデータ) (2022-07-05T15:15:22Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Using Knowledge-Embedded Attention to Augment Pre-trained Language
Models for Fine-Grained Emotion Recognition [0.0]
我々は,事前学習した自己意識モデルに外部知識を導入することで,微粒な感情認識を改善することに集中する。
結果と誤差解析は,複数のデータセットで過去のモデルより優れていた。
論文 参考訳(メタデータ) (2021-07-31T09:41:44Z) - Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition [29.916609743097215]
一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
本研究では,感情誘発アプローチをドメイン知識とみなし,感情発話におけるドメイン伝達学習技術を探求する。
論文 参考訳(メタデータ) (2021-04-05T15:59:31Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。