論文の概要: Emotion pattern detection on facial videos using functional statistics
- arxiv url: http://arxiv.org/abs/2103.00844v1
- Date: Mon, 1 Mar 2021 08:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 08:51:40.262645
- Title: Emotion pattern detection on facial videos using functional statistics
- Title(参考訳): 機能統計を用いた顔ビデオの感情パターン検出
- Authors: Rongjiao Ji, Alessandra Micheletti, Natasa Krklec Jerinkic, Zoranka
Desnica
- Abstract要約: 顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is an increasing scientific interest in automatically analysing and
understanding human behavior, with particular reference to the evolution of
facial expressions and the recognition of the corresponding emotions. In this
paper we propose a technique based on Functional ANOVA to extract significant
patterns of face muscles movements, in order to identify the emotions expressed
by actors in recorded videos. We determine if there are time-related
differences on expressions among emotional groups by using a functional F-test.
Such results are the first step towards the construction of a reliable
automatic emotion recognition system
- Abstract(参考訳): 人間の行動を自動的に分析し理解することに対する科学的関心が高まっており、特に表情の進化と対応する感情の認識に言及している。
本論文では,アクターが映像で表現した感情を同定するために,Function ANOVAを用いて顔筋運動の有意なパターンを抽出する手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
このような結果は、信頼性の高い自動感情認識システムの構築に向けた第一歩です。
関連論文リスト
- Leveraging Previous Facial Action Units Knowledge for Emotion
Recognition on Faces [2.4158349218144393]
本稿では,感情認識のための顔行動単位(AU)認識手法を提案する。
この認識はFACS(Facial Action Coding System)に基づいており、機械学習システムによって計算される。
論文 参考訳(メタデータ) (2023-11-20T18:14:53Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Detection of Genuine and Posed Facial Expressions of Emotion: A Review [14.017423779272617]
顔の表情理解において,真性(自発性)表現と擬似(自由/意志/知覚)表現の区別は極めて困難な課題である。
本稿では,複数の自発対ポーズ(SVP)表情データベースと様々なコンピュータビジョンに基づく検出方法を含む,関連研究の総括的なレビューを行う。
論文 参考訳(メタデータ) (2020-08-26T02:49:32Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z) - Impact of multiple modalities on emotion recognition: investigation into
3d facial landmarks, action units, and physiological data [4.617405932149653]
感情認識における3次元顔データ,行動単位,生理的データの解析を行った。
分析の結果,3次元顔のランドマークと生理的データの両方が表情・感情認識に有効であることが示唆された。
一方、アクションユニットは、他のモダリティと融合した場合、感情認識に肯定的な影響を与える可能性があるが、この結果から、それらを用いて感情を検出することは困難であることが示唆された。
論文 参考訳(メタデータ) (2020-05-17T18:59:57Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。