論文の概要: Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2011.09280v2
- Date: Fri, 15 Jan 2021 14:49:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:36:04.576305
- Title: Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks
- Title(参考訳): 時空間畳み込みニューラルネットワークを用いた連続感情認識
- Authors: Thomas Teixeira, Eric Granger, Alessandro Lameiras Koerich
- Abstract要約: In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
- 参考スコア(独自算出の注目度): 82.54695985117783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial expressions are one of the most powerful ways for depicting specific
patterns in human behavior and describing human emotional state. Despite the
impressive advances of affective computing over the last decade, automatic
video-based systems for facial expression recognition still cannot handle
properly variations in facial expression among individuals as well as
cross-cultural and demographic aspects. Nevertheless, recognizing facial
expressions is a difficult task even for humans. In this paper, we investigate
the suitability of state-of-the-art deep learning architectures based on
convolutional neural networks (CNNs) for continuous emotion recognition using
long video sequences captured in-the-wild. This study focuses on deep learning
models that allow encoding spatiotemporal relations in videos considering a
complex and multi-dimensional emotion space, where values of valence and
arousal must be predicted. We have developed and evaluated convolutional
recurrent neural networks combining 2D-CNNs and long short term-memory units,
and inflated 3D-CNN models, which are built by inflating the weights of a
pre-trained 2D-CNN model during fine-tuning, using application-specific videos.
Experimental results on the challenging SEWA-DB dataset have shown that these
architectures can effectively be fine-tuned to encode the spatiotemporal
information from successive raw pixel images and achieve state-of-the-art
results on such a dataset.
- Abstract(参考訳): 表情は、人間の行動の特定のパターンを描写し、人間の感情状態を記述する最も強力な方法の1つである。
過去10年間の感情コンピューティングの驚くべき進歩にもかかわらず、表情認識のための自動ビデオベースシステムは、個人間の表情の適切なバリエーションだけでなく、異文化や人口動態の側面も処理できない。
それでも、顔の表情を認識することは、人間にとっても難しい作業だ。
本稿では,畳み込みニューラルネットワーク(convolutional neural networks:cnns)に基づく最先端ディープラーニングアーキテクチャの連続感情認識への適合性について検討する。
本研究では,多次元の感情空間を考慮したビデオにおける時空間関係の符号化を可能にする深層学習モデルに焦点を当てた。
2d-cnnsと長い短期記憶単位を組み合わせた畳み込み型リカレントニューラルネットワークと,事前学習した2d-cnnモデルの重みをアプリケーション固有のビデオを用いて拡張した3d-cnnモデルを開発した。
挑戦的なSEWA-DBデータセットの実験結果から、これらのアーキテクチャは、連続した原画素画像から時空間情報をエンコードし、そのようなデータセット上で最先端の結果を得るために、効果的に微調整できることが示されている。
関連論文リスト
- Alleviating Catastrophic Forgetting in Facial Expression Recognition with Emotion-Centered Models [49.3179290313959]
感情中心型生成的リプレイ (ECgr) は, 生成的対向ネットワークから合成画像を統合することで, この課題に対処する。
ECgrは、生成された画像の忠実性を保証するために品質保証アルゴリズムを組み込んでいる。
4つの多様な表情データセットに対する実験結果から,擬似リハーサル法により生成されたイメージを組み込むことで,ターゲットとするデータセットとソースデータセットのトレーニングが促進されることが示された。
論文 参考訳(メタデータ) (2024-04-18T15:28:34Z) - Deep Learning Approaches for Human Action Recognition in Video Data [0.8080830346931087]
本研究は、この課題に対処するために、様々なディープラーニングモデルの詳細な分析を行う。
我々は、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)、Two-Stream ConvNetsに焦点を当てる。
本研究の結果は,頑健な人間の行動認識を実現するための複合モデルの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-03-11T15:31:25Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - Facial Expressions Recognition with Convolutional Neural Networks [0.0]
ニューラルネットワークを利用して表情認識システム(FER)を実装する。
我々は、追加のトレーニングデータを用いることなく、FER2013データセット上で、最先端のシングルネットワーク精度の70.10%を実証する。
論文 参考訳(メタデータ) (2021-07-19T06:41:00Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - Real-time Facial Expression Recognition "In The Wild'' by Disentangling
3D Expression from Identity [6.974241731162878]
本稿では,1枚のRGB画像から人間の感情認識を行う新しい手法を提案する。
顔のダイナミックス、アイデンティティ、表情、外観、3Dポーズのバリエーションに富んだ大規模な顔ビデオデータセットを構築した。
提案するフレームワークは毎秒50フレームで動作し、3次元表現変動のパラメータを頑健に推定することができる。
論文 参考訳(メタデータ) (2020-05-12T01:32:55Z) - TimeConvNets: A Deep Time Windowed Convolution Neural Network Design for
Real-time Video Facial Expression Recognition [93.0013343535411]
本研究では、リアルタイムな映像表情認識を目的とした、新しい時間窓付き畳み込みニューラルネットワーク設計(TimeConvNets)について検討する。
我々は,TimeConvNetsが表情の過度なニュアンスを捕捉し,低い推論時間を維持しながら分類精度を高めることができることを示した。
論文 参考訳(メタデータ) (2020-03-03T20:58:52Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。