論文の概要: Learning Unseen Emotions from Gestures via Semantically-Conditioned
Zero-Shot Perception with Adversarial Autoencoders
- arxiv url: http://arxiv.org/abs/2009.08906v2
- Date: Thu, 2 Dec 2021 08:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 03:16:14.508080
- Title: Learning Unseen Emotions from Gestures via Semantically-Conditioned
Zero-Shot Perception with Adversarial Autoencoders
- Title(参考訳): 対向オートエンコーダを用いたセマンティック・コンディションドゼロショット知覚によるジェスチャーからの未知感情の学習
- Authors: Abhishek Banerjee, Uttaran Bhattacharya, Aniket Bera
- Abstract要約: 本稿では,3次元モーションキャプチャー・ジェスチャ・シーケンスと自然言語知覚感情項のベクトル化表現とを関連付ける,対角的自己エンコーダに基づく表現学習を提案する。
我々は、既知の感情用語に注釈付けされたジェスチャーと、どんな感情にも注釈付けされていないジェスチャーを組み合わせることで、手法を訓練する。
- 参考スコア(独自算出の注目度): 25.774235606472875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel generalized zero-shot algorithm to recognize perceived
emotions from gestures. Our task is to map gestures to novel emotion categories
not encountered in training. We introduce an adversarial, autoencoder-based
representation learning that correlates 3D motion-captured gesture sequence
with the vectorized representation of the natural-language perceived emotion
terms using word2vec embeddings. The language-semantic embedding provides a
representation of the emotion label space, and we leverage this underlying
distribution to map the gesture-sequences to the appropriate categorical
emotion labels. We train our method using a combination of gestures annotated
with known emotion terms and gestures not annotated with any emotions. We
evaluate our method on the MPI Emotional Body Expressions Database (EBEDB) and
obtain an accuracy of $58.43\%$. This improves the performance of current
state-of-the-art algorithms for generalized zero-shot learning by $25$--$27\%$
on the absolute.
- Abstract(参考訳): 本稿では,ジェスチャから知覚された感情を認識できるゼロショットアルゴリズムを提案する。
我々の仕事は、訓練で遭遇しない新しい感情カテゴリーにジェスチャーをマッピングすることである。
本稿では,3次元モーションキャプチャによるジェスチャー系列と,単語2vec埋め込みを用いた自然言語知覚感情項のベクトル化表現とを関連付ける,対角的自己エンコーダに基づく表現学習を提案する。
言語-意味的埋め込みは感情ラベル空間の表現を提供し、この基盤となる分布を利用してジェスチャ列を適切なカテゴリー的感情ラベルにマッピングする。
我々は、既知の感情用語に注釈付けされたジェスチャーと、感情に注釈付けされていないジェスチャーを組み合わせることで、手法を訓練する。
MPI感情体表現データベース(EBEDB)を用いて評価を行い,その精度は58.43 %である。
これにより、一般化されたゼロショット学習のための現在の最先端アルゴリズムの性能が、絶対値で25$--27$%向上する。
関連論文リスト
- Dynamic Typography: Bringing Text to Life via Video Diffusion Prior [73.72522617586593]
動的タイポグラフィー(Dynamic Typography)と呼ばれる自動テキストアニメーション方式を提案する。
意味的意味を伝えるために文字を変形させ、ユーザプロンプトに基づいて活気ある動きを注入する。
本手法は,ベクトルグラフィックス表現とエンドツーエンド最適化に基づくフレームワークを利用する。
論文 参考訳(メタデータ) (2024-04-17T17:59:55Z) - Learning Emotion Representations from Verbal and Nonverbal Communication [7.747924294389427]
本稿では,言語・非言語コミュニケーションから視覚的感情表現を抽出する最初の事前学習パラダイムであるEmotionCLIPを提案する。
EmotionCLIPは、感情誘導型コントラスト学習を用いて、主観的文脈エンコーディングと言語感情キューを通じて、非言語感情キューへの参加を誘導する。
EmotionCLIPは、感情理解におけるデータ不足の一般的な問題に対処し、関連する領域の進歩を促進する。
論文 参考訳(メタデータ) (2023-05-22T21:36:55Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - The Emotion is Not One-hot Encoding: Learning with Grayscale Label for
Emotion Recognition in Conversation [0.0]
会話における感情認識(ERC)では、過去の文脈を考慮し、現在の発話の感情を予測する。
グレースケールラベルを構築するためのいくつかの手法を導入し、各手法が感情認識性能を向上させることを確認する。
論文 参考訳(メタデータ) (2022-06-15T08:14:42Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - A Generalized Zero-Shot Framework for Emotion Recognition from Body
Gestures [5.331671302839567]
本稿では,新しい身体ジェスチャーの感情状態を推測する汎用ゼロショット学習(GZSL)フレームワークを提案する。
このフレームワークは従来の感情分類法や最先端のゼロショット学習法よりもはるかに優れている。
論文 参考訳(メタデータ) (2020-10-13T13:16:38Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for
Socially-Aware Robot Navigation [65.11858854040543]
本稿では,歩行者間のロボットナビゲーションのための感情予測アルゴリズムProxEmoを提案する。
提案手法は歩行歩行から歩行者の知覚された感情を予測し,感情誘導ナビゲーションに使用する。
論文 参考訳(メタデータ) (2020-03-02T17:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。