論文の概要: Global-Local Attention for Emotion Recognition
- arxiv url: http://arxiv.org/abs/2111.04129v1
- Date: Sun, 7 Nov 2021 17:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 05:00:46.472693
- Title: Global-Local Attention for Emotion Recognition
- Title(参考訳): 感情認識のためのグローバルローカル注意
- Authors: Nhat Le, Khanh Nguyen, Anh Nguyen, Bac Le
- Abstract要約: 本研究では,新たなグローバルアテンション機構を用いて,人間の感情を認識するディープネットワークを提案する。
我々のネットワークは、顔領域とコンテキスト領域の両方から独立して特徴を抽出し、それらを一緒に学習するように設計されている。
本手法は,近年の感情データセットにおける最先端の手法を,公平なマージンで超越している。
- 参考スコア(独自算出の注目度): 19.483406999874553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human emotion recognition is an active research area in artificial
intelligence and has made substantial progress over the past few years. Many
recent works mainly focus on facial regions to infer human affection, while the
surrounding context information is not effectively utilized. In this paper, we
proposed a new deep network to effectively recognize human emotions using a
novel global-local attention mechanism. Our network is designed to extract
features from both facial and context regions independently, then learn them
together using the attention module. In this way, both the facial and
contextual information is used to infer human emotions, therefore enhancing the
discrimination of the classifier. The intensive experiments show that our
method surpasses the current state-of-the-art methods on recent emotion
datasets by a fair margin. Qualitatively, our global-local attention module can
extract more meaningful attention maps than previous methods. The source code
and trained model of our network are available at
https://github.com/minhnhatvt/glamor-net
- Abstract(参考訳): 人間の感情認識は人工知能の活発な研究分野であり、ここ数年でかなりの進歩を遂げている。
近年の多くの研究は、人間の愛情を推測するための顔領域に焦点を当てているが、周囲の文脈情報は効果的に利用されていない。
本稿では,新たなグローバルアテンション機構を用いて,人間の感情を効果的に認識するディープネットワークを提案する。
我々のネットワークは、顔領域とコンテキスト領域の両方から独立して特徴を抽出し、アテンションモジュールを使ってそれらを一緒に学習するように設計されている。
このように、顔情報も文脈情報も人間の感情を推測するために用いられるため、分類器の識別が促進される。
集中的な実験により,最近の感情データセットにおける現在の最先端手法をかなりのマージンで超えていることが示された。
グローバルなアテンションモジュールは,従来の手法よりも意味のあるアテンションマップを抽出できる。
私たちのネットワークのソースコードとトレーニングされたモデルは、https://github.com/minhnhatvt/glamor-netで利用可能です。
関連論文リスト
- Leveraging Previous Facial Action Units Knowledge for Emotion
Recognition on Faces [2.4158349218144393]
本稿では,感情認識のための顔行動単位(AU)認識手法を提案する。
この認識はFACS(Facial Action Coding System)に基づいており、機械学習システムによって計算される。
論文 参考訳(メタデータ) (2023-11-20T18:14:53Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Leveraging Recent Advances in Deep Learning for Audio-Visual Emotion
Recognition [2.1485350418225244]
人間の行動分析のために, 自発的なマルチモーダル感情認識が広く研究されている。
視聴覚感情認識のための深層学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-16T15:49:15Z) - Regional Attention Network (RAN) for Head Pose and Fine-grained Gesture
Recognition [9.131161856493486]
本研究では,CNN(Convolutional Neural Network) である RAN (End-to-end textbfRegional Attention Network) を提案する。
我々の領域は1つ以上の連続した細胞から構成されており、HOG(Histogram of Oriented Gradient)ディスクリプタの計算に使用される戦略に適応している。
提案手法は、異なる指標のかなりの差で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-01-17T10:14:28Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - An End-to-End Visual-Audio Attention Network for Emotion Recognition in
User-Generated Videos [64.91614454412257]
畳み込みニューラルネットワーク(CNN)に基づくエンドツーエンドの映像感情認識を提案する。
具体的には,空間的,チャネル的,時間的注意を視覚的に3D CNNに統合し,時間的注意をオーディオ2D CNNに組み込む新しいアーキテクチャである,深層ビジュアル・オーディオ・アテンション・ネットワーク(VAANet)を開発した。
論文 参考訳(メタデータ) (2020-02-12T15:33:59Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。