論文の概要: A Generalized Zero-Shot Framework for Emotion Recognition from Body
Gestures
- arxiv url: http://arxiv.org/abs/2010.06362v2
- Date: Tue, 20 Oct 2020 08:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 00:05:37.816993
- Title: A Generalized Zero-Shot Framework for Emotion Recognition from Body
Gestures
- Title(参考訳): 全身ジェスチャーからの感情認識のための一般化ゼロショットフレームワーク
- Authors: Jinting Wu, Yujia Zhang, Xiaoguang Zhao and Wenbin Gao
- Abstract要約: 本稿では,新しい身体ジェスチャーの感情状態を推測する汎用ゼロショット学習(GZSL)フレームワークを提案する。
このフレームワークは従来の感情分類法や最先端のゼロショット学習法よりもはるかに優れている。
- 参考スコア(独自算出の注目度): 5.331671302839567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although automatic emotion recognition from facial expressions and speech has
made remarkable progress, emotion recognition from body gestures has not been
thoroughly explored. People often use a variety of body language to express
emotions, and it is difficult to enumerate all emotional body gestures and
collect enough samples for each category. Therefore, recognizing new emotional
body gestures is critical for better understanding human emotions. However, the
existing methods fail to accurately determine which emotional state a new body
gesture belongs to. In order to solve this problem, we introduce a Generalized
Zero-Shot Learning (GZSL) framework, which consists of three branches to infer
the emotional state of the new body gestures with only their semantic
descriptions. The first branch is a Prototype-Based Detector (PBD) which is
used to determine whether an sample belongs to a seen body gesture category and
obtain the prediction results of the samples from the seen categories. The
second branch is a Stacked AutoEncoder (StAE) with manifold regularization,
which utilizes semantic representations to predict samples from unseen
categories. Note that both of the above branches are for body gesture
recognition. We further add an emotion classifier with a softmax layer as the
third branch in order to better learn the feature representations for this
emotion classification task. The input features for these three branches are
learned by a shared feature extraction network, i.e., a Bidirectional Long
Short-Term Memory Networks (BLSTM) with a self-attention module. We treat these
three branches as subtasks and use multi-task learning strategies for joint
training. The performance of our framework on an emotion recognition dataset is
significantly superior to the traditional method of emotion classification and
state-of-the-art zero-shot learning methods.
- Abstract(参考訳): 表情や音声からの自動感情認識は目覚ましい進歩を遂げているが,身体ジェスチャーからの感情認識は十分に研究されていない。
人々は感情を表現するために様々なボディランゲージを使うことが多く、すべての感情的な身体動作を列挙し、各カテゴリーに十分なサンプルを集めることは困難である。
したがって、人間の感情をよりよく理解するために、新しい感情的身体動作を認識することが重要である。
しかし、既存の手法では、新しい身体ジェスチャーが属する感情状態が正確に決定できない。
そこで,本稿では,新しい身体ジェスチャの感情状態を推定する3つの分枝からなる汎用的ゼロショット学習(gzsl)フレームワークを提案する。
第1のブランチはプロトタイプベースの検出器(pbd)であり、サンプルが被写体ジェスチャカテゴリに属しているかどうかを判定し、被写体カテゴリからサンプルの予測結果を取得するために使用される。
第2のブランチは、多様体正規化を備えたスタックドオートエンコーダ(StAE)で、意味表現を使用して、目に見えないカテゴリのサンプルを予測する。
上述の枝はどちらも身体ジェスチャー認識用であることに注意。
さらに、この感情分類タスクの特徴表現をよりよく学ぶために、softmax層を第3のブランチとして感情分類器を追加する。
これら3つのブランチの入力機能は、共有機能抽出ネットワーク、すなわち、自己アテンションモジュールを備えた双方向長短期記憶ネットワーク(BLSTM)によって学習される。
これら3つのブランチをサブタスクとして扱い,共同トレーニングにマルチタスク学習戦略を使用する。
感情認識データセットにおけるフレームワークの性能は,従来の感情分類法や最先端ゼロショット学習法に比べて有意に優れている。
関連論文リスト
- TONE: A 3-Tiered ONtology for Emotion analysis [9.227164881235947]
感情は心理学、医学、メンタルヘルス、コンピュータサイエンスなど、多くの分野で重要な役割を果たしてきた。
1) 教師付き手法の効率は収集したデータのサイズと領域に強く依存する。
我々は、Gerrod Parrot博士の感情群に基づく感情階層を効果的に生成する感情ベースのオントロジーを作成する。
論文 参考訳(メタデータ) (2024-01-11T04:23:08Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - When Facial Expression Recognition Meets Few-Shot Learning: A Joint and
Alternate Learning Framework [60.51225419301642]
実践シナリオにおける人間の感情の多様性に対応するために,感情ガイド型類似ネットワーク(EGS-Net)を提案する。
EGS-Netは2段階の学習フレームワークに基づいた感情ブランチと類似性ブランチで構成されている。
In-the-labとin-the-wildの複合表現データセットの実験結果から,提案手法がいくつかの最先端手法に対して優れていることを示す。
論文 参考訳(メタデータ) (2022-01-18T07:24:12Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Multi-Classifier Interactive Learning for Ambiguous Speech Emotion
Recognition [9.856709988128515]
曖昧な発話感情に対処するために,MCIL (Multi-classifier Interactive Learning) 法を提案する。
MCILは、曖昧な感情の無矛盾な認識を持つ複数の個人を模倣し、新しい曖昧なラベルを構築する。
実験では、MCILは各分類器のパフォーマンスを向上させるだけでなく、認識の一貫性を中程度から実質的に向上させる。
論文 参考訳(メタデータ) (2020-12-10T02:58:34Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Learning Unseen Emotions from Gestures via Semantically-Conditioned
Zero-Shot Perception with Adversarial Autoencoders [25.774235606472875]
本稿では,3次元モーションキャプチャー・ジェスチャ・シーケンスと自然言語知覚感情項のベクトル化表現とを関連付ける,対角的自己エンコーダに基づく表現学習を提案する。
我々は、既知の感情用語に注釈付けされたジェスチャーと、どんな感情にも注釈付けされていないジェスチャーを組み合わせることで、手法を訓練する。
論文 参考訳(メタデータ) (2020-09-18T15:59:44Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。