論文の概要: Multi-Cue Adaptive Emotion Recognition Network
- arxiv url: http://arxiv.org/abs/2111.02273v1
- Date: Wed, 3 Nov 2021 15:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 14:15:41.925960
- Title: Multi-Cue Adaptive Emotion Recognition Network
- Title(参考訳): マルチキュー適応感情認識ネットワーク
- Authors: Willams Costa, David Mac\^edo, Cleber Zanchettin, Lucas S. Figueiredo
and Veronica Teichrieb
- Abstract要約: 適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
- 参考スコア(独自算出の注目度): 4.570705738465714
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Expressing and identifying emotions through facial and physical expressions
is a significant part of social interaction. Emotion recognition is an
essential task in computer vision due to its various applications and mainly
for allowing a more natural interaction between humans and machines. The common
approaches for emotion recognition focus on analyzing facial expressions and
requires the automatic localization of the face in the image. Although these
methods can correctly classify emotion in controlled scenarios, such techniques
are limited when dealing with unconstrained daily interactions. We propose a
new deep learning approach for emotion recognition based on adaptive multi-cues
that extract information from context and body poses, which humans commonly use
in social interaction and communication. We compare the proposed approach with
the state-of-art approaches in the CAER-S dataset, evaluating different
components in a pipeline that reached an accuracy of 89.30%
- Abstract(参考訳): 表情や身体表現を通じて感情を表現し識別することは、社会的相互作用の重要な部分である。
感情認識はコンピュータビジョンにおいて、その様々な応用と、主に人間と機械とのより自然な相互作用を可能にするために不可欠なタスクである。
感情認識の一般的なアプローチは表情の分析に重点を置いており、画像中の顔を自動的に位置決めする必要がある。
これらの手法は、制御されたシナリオで感情を正しく分類することができるが、制約のない日々のインタラクションを扱う場合に制限される。
本研究では,社会的相互作用やコミュニケーションに一般的に使用されるコンテキストや身体のポーズから情報を抽出する適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端アプローチを比較し,89.30%の精度でパイプライン内の異なるコンポーネントを評価する。
関連論文リスト
- In-Depth Analysis of Emotion Recognition through Knowledge-Based Large Language Models [3.8153944233011385]
本稿では,文脈に基づく感情認識の新たな分野に寄与する。
本稿では,感情認識手法とベイジアンキュー統合を組み合わせたアプローチを提案する。
本手法は,受刑者のジレンマである社会的課題における表情の解釈の文脈で検証する。
論文 参考訳(メタデータ) (2024-07-17T06:39:51Z) - Exploring Emotions in Multi-componential Space using Interactive VR Games [1.1510009152620668]
インタラクティブバーチャルリアリティ(VR)ゲームを用いたデータ駆動型アプローチを運用した。
機械学習(ML)手法を用いて、各コンポーネントの感情分化に対するユニークな貢献を識別した。
これらの知見は、感情研究におけるVR環境の利用にも影響する。
論文 参考訳(メタデータ) (2024-04-04T06:54:44Z) - Leveraging Previous Facial Action Units Knowledge for Emotion
Recognition on Faces [2.4158349218144393]
本稿では,感情認識のための顔行動単位(AU)認識手法を提案する。
この認識はFACS(Facial Action Coding System)に基づいており、機械学習システムによって計算される。
論文 参考訳(メタデータ) (2023-11-20T18:14:53Z) - Face Emotion Recognization Using Dataset Augmentation Based on Neural
Network [0.0]
表情は、人の感情や感情の最も外部的な表現の1つである。
対人関係の調整に重要な役割を果たしている。
感情分析の分野の一分野として、表情認識は幅広い応用可能性を提供する。
論文 参考訳(メタデータ) (2022-10-23T10:21:45Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Temporal aggregation of audio-visual modalities for emotion recognition [0.5352699766206808]
本研究では,時間的オフセットの異なる時間的オフセットと時間的ウィンドウからの音声・視覚的モダリティを組み合わせた感情認識のためのマルチモーダル融合手法を提案する。
提案手法は,文献と人間の精度評価から,他の手法よりも優れている。
論文 参考訳(メタデータ) (2020-07-08T18:44:15Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。