論文の概要: Deformable Convolutional LSTM for Human Body Emotion Recognition
- arxiv url: http://arxiv.org/abs/2010.14607v1
- Date: Tue, 27 Oct 2020 21:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:23:31.670996
- Title: Deformable Convolutional LSTM for Human Body Emotion Recognition
- Title(参考訳): 変形性畳み込みLSTMによる人体感情認識
- Authors: Peyman Tahghighi, Abbas Koochari, Masoume Jalali
- Abstract要約: 我々は、GEMデータセットの実験を行い、人体全体の感情認識のタスクにおいて、最先端の精度98.8%を達成した。
変形可能な動作を畳み込み長短期記憶(ConvLSTM)のコアに組み込んで、画像中のこれらの変形に対するロバスト性を改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People represent their emotions in a myriad of ways. Among the most important
ones is whole body expressions which have many applications in different fields
such as human-computer interaction (HCI). One of the most important challenges
in human emotion recognition is that people express the same feeling in various
ways using their face and their body. Recently many methods have tried to
overcome these challenges using Deep Neural Networks (DNNs). However, most of
these methods were based on images or on facial expressions only and did not
consider deformation that may happen in the images such as scaling and rotation
which can adversely affect the recognition accuracy. In this work, motivated by
recent researches on deformable convolutions, we incorporate the deformable
behavior into the core of convolutional long short-term memory (ConvLSTM) to
improve robustness to these deformations in the image and, consequently,
improve its accuracy on the emotion recognition task from videos of arbitrary
length. We did experiments on the GEMEP dataset and achieved state-of-the-art
accuracy of 98.8% on the task of whole human body emotion recognition on the
validation set.
- Abstract(参考訳): 人は無数の方法で感情を表現する。
最も重要なものは、人間とコンピュータの相互作用(hci)のような様々な分野に多くの応用がある全身表現である。
人間の感情認識における最も重要な課題の1つは、顔と体を使って様々な方法で同じ感情を表現することである。
近年,Deep Neural Networks (DNN) を用いて,これらの課題を克服する手法が数多く提案されている。
しかし,これらの手法の多くは画像や表情のみに基づいており,画像のスケールや回転などの変形が認識精度に悪影響を及ぼすとは考えていなかった。
本研究では,変形可能な畳み込みに関する最近の研究に動機づけられ,畳み込み型長期短期記憶(convlstm)のコアに変形可能な動作を組み込むことにより,画像内のこれらの変形に対する頑健性を改善し,任意の長さの映像から感情認識タスクの精度を向上させる。
GEMEPデータセットの実験を行い、検証セット上での人体全体の感情認識のタスクにおいて、最先端の精度98.8%を達成した。
関連論文リスト
- Extreme Image Transformations Affect Humans and Machines Differently [0.0]
最近の人工ニューラルネットワーク(ANN)では、霊長類ニューラルネットと人間のパフォーマンスデータの側面をモデル化している。
神経生理学的な知見にインスパイアされた新しい画像変換のセットを導入し、物体認識タスクにおいて人間とANNを評価する。
機械は、特定の変換のために人間よりも優れた性能を示し、人間にとって容易な他者と同等の性能を発揮するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:12:53Z) - EMOCA: Emotion Driven Monocular Face Capture and Animation [59.15004328155593]
本稿では,学習中の感情の深層的一貫性を損なうことによって,再構成された3次元表現が入力画像に表現された表現と一致することを確実にする。
In-the-wild emotion recognitionのタスクでは、人間の行動を分析する上での3D幾何の価値を強調しながら、最も優れた画像ベースの手法と同等に幾何学的アプローチを実践しています。
論文 参考訳(メタデータ) (2022-04-24T15:58:35Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Preserving Privacy in Human-Motion Affect Recognition [4.753703852165805]
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T15:26:21Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Impact of multiple modalities on emotion recognition: investigation into
3d facial landmarks, action units, and physiological data [4.617405932149653]
感情認識における3次元顔データ,行動単位,生理的データの解析を行った。
分析の結果,3次元顔のランドマークと生理的データの両方が表情・感情認識に有効であることが示唆された。
一方、アクションユニットは、他のモダリティと融合した場合、感情認識に肯定的な影響を与える可能性があるが、この結果から、それらを用いて感情を検出することは困難であることが示唆された。
論文 参考訳(メタデータ) (2020-05-17T18:59:57Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。