論文の概要: The Role of Facial Expressions and Emotion in ASL
- arxiv url: http://arxiv.org/abs/2201.07906v1
- Date: Wed, 19 Jan 2022 23:11:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 14:27:06.192603
- Title: The Role of Facial Expressions and Emotion in ASL
- Title(参考訳): ASLにおける表情と感情の役割
- Authors: Lee Kezar, Pei Zhou
- Abstract要約: アメリカ手話における感情と顔の関係は多岐にわたる。
単純な分類器は、顔を見るだけで、広く感情的なカテゴリーの観点で、誰かが何を言っているかを予測することができる。
- 参考スコア(独自算出の注目度): 4.686078698204789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is little prior work on quantifying the relationships between facial
expressions and emotionality in American Sign Language. In this final report,
we provide two methods for studying these relationships through probability and
prediction. Using a large corpus of natural signing manually annotated with
facial features paired with lexical emotion datasets, we find that there exist
many relationships between emotionality and the face, and that a simple
classifier can predict what someone is saying in terms of broad emotional
categories only by looking at the face.
- Abstract(参考訳): アメリカ手話における表情と感情の関係の定量化に関する先行研究はほとんどない。
本報告では,これらの関係を確率と予測を通じて研究するための2つの方法を提案する。
語彙的感情データセットと組み合わせた顔特徴を手作業でアノテートした自然署名の大規模なコーパスを用いて,感情と顔の間には多くの関係性があり,単純な分類器は,顔を見るだけで,広い感情カテゴリの観点で誰かが何を言っているのかを予測できることがわかった。
関連論文リスト
- Face Emotion Recognization Using Dataset Augmentation Based on Neural
Network [0.0]
表情は、人の感情や感情の最も外部的な表現の1つである。
対人関係の調整に重要な役割を果たしている。
感情分析の分野の一分野として、表情認識は幅広い応用可能性を提供する。
論文 参考訳(メタデータ) (2022-10-23T10:21:45Z) - When Facial Expression Recognition Meets Few-Shot Learning: A Joint and
Alternate Learning Framework [60.51225419301642]
実践シナリオにおける人間の感情の多様性に対応するために,感情ガイド型類似ネットワーク(EGS-Net)を提案する。
EGS-Netは2段階の学習フレームワークに基づいた感情ブランチと類似性ブランチで構成されている。
In-the-labとin-the-wildの複合表現データセットの実験結果から,提案手法がいくつかの最先端手法に対して優れていることを示す。
論文 参考訳(メタデータ) (2022-01-18T07:24:12Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Emotion Recognition under Consideration of the Emotion Component Process
Model [9.595357496779394]
我々はScherer (2005) による感情成分プロセスモデル (CPM) を用いて感情コミュニケーションを説明する。
CPMは、感情は、出来事、すなわち主観的感情、認知的評価、表現、生理的身体反応、動機的行動傾向に対する様々なサブコンポーネントの協調過程であると述べている。
Twitter上での感情は、主に出来事の説明や主観的な感情の報告によって表現されているのに対し、文献では、著者はキャラクターが何をしているかを記述し、解釈を読者に任せることを好む。
論文 参考訳(メタデータ) (2021-07-27T15:53:25Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - RAF-AU Database: In-the-Wild Facial Expressions with Subjective Emotion
Judgement and Objective AU Annotations [36.93475723886278]
我々は,サインベース(AU)と判断ベース(知覚的感情)を用いたRAF-AUデータベースを開発し,野生における混合表情のアノテートを行う。
また,どのキーAUが知覚的感情に最も寄与するか,およびAUと表情の関係について予備調査を行った。
論文 参考訳(メタデータ) (2020-08-12T09:29:16Z) - Comprehensive Facial Expression Synthesis using Human-Interpretable
Language [33.11402372756348]
言語に基づく表情記述から新しい表情合成モデルを提案する。
本手法は,詳細な表情で顔画像の合成を行う。
さらに, 顔の特徴に言語特徴を効果的に埋め込むことで, 個々の単語を制御し, 顔の動きを処理できる。
論文 参考訳(メタデータ) (2020-07-16T07:28:25Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。