論文の概要: A Naturalistic Database of Thermal Emotional Facial Expressions and
Effects of Induced Emotions on Memory
- arxiv url: http://arxiv.org/abs/2203.15443v1
- Date: Tue, 29 Mar 2022 11:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:04:24.103288
- Title: A Naturalistic Database of Thermal Emotional Facial Expressions and
Effects of Induced Emotions on Memory
- Title(参考訳): 熱的感情表情の自然論的データベースと誘発感情の記憶への影響
- Authors: Anna Esposito, Vincenzo Capuano, Jiri Mekyska, Marcos Faundez-Zanuy
- Abstract要約: 本研究は、感情的内容の高い映画抜粋の視覚を通して、自然に誘発される感情的表情を収集する手順を定義する。
引き起こされた感情状態には、悲しみ、嫌悪、幸福、驚きの4つの基本的な感情が含まれる。
得られたデータベースは、熱的および可視的な感情的表情の両方を含む。
- 参考スコア(独自算出の注目度): 1.8352113484137629
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work defines a procedure for collecting naturally induced emotional
facial expressions through the vision of movie excerpts with high emotional
contents and reports experimental data ascertaining the effects of emotions on
memory word recognition tasks. The induced emotional states include the four
basic emotions of sadness, disgust, happiness, and surprise, as well as the
neutral emotional state. The resulting database contains both thermal and
visible emotional facial expressions, portrayed by forty Italian subjects and
simultaneously acquired by appropriately synchronizing a thermal and a standard
visible camera. Each subject's recording session lasted 45 minutes, allowing
for each mode (thermal or visible) to collect a minimum of 2000 facial
expressions from which a minimum of 400 were selected as highly expressive of
each emotion category. The database is available to the scientific community
and can be obtained contacting one of the authors. For this pilot study, it was
found that emotions and/or emotion categories do not affect individual
performance on memory word recognition tasks and temperature changes in the
face or in some regions of it do not discriminate among emotional states.
- Abstract(参考訳): 本研究は、感情的内容の高い映画抜粋の視覚を通して自然に誘発される感情的表情を収集する手順を定義し、メモリワード認識タスクに対する感情の影響を実証する実験データを報告する。
引き起こされた感情状態には、悲しみ、嫌悪、幸福、驚きの4つの基本的な感情と、中立的な感情状態が含まれる。
得られたデータベースは、熱的および可視的表情の両方を含み、40名のイタリア人被験者によって描かれ、熱的および標準的な可視的カメラを適切に同期させることによって同時に取得される。
各被験者の録画セッションは45分間続き、各モード(熱的または可視的)が最低2000の表情を収集し、各感情カテゴリーの表現力が高いものとして最低400が選択された。
データベースは科学コミュニティで利用可能であり、著者の1人に連絡することができる。
本実験では,感情や感情のカテゴリーが,記憶単語認識タスクにおける個々のパフォーマンスや,顔やその一部の領域の温度変化に影響を及ぼさないことが明らかとなった。
関連論文リスト
- Daisy-TTS: Simulating Wider Spectrum of Emotions via Prosody Embedding Decomposition [12.605375307094416]
構造モデルに基づく感情の幅広いスペクトルをシミュレートする感情的テキスト・音声設計を提案する。
提案したデザインであるDaisy-TTSは、感情のプロキシとして感情的に分離可能な韻律埋め込みを学習するための韻律エンコーダを組み込んでいる。
論文 参考訳(メタデータ) (2024-02-22T13:15:49Z) - emotion2vec: Self-Supervised Pre-Training for Speech Emotion
Representation [42.29118614670941]
普遍的な音声感情表現モデルである感情2vecを提案する。
感情2vecは自己監督型オンライン蒸留を通じてラベルなしの感情データに基づいて事前訓練される。
最先端の訓練済みユニバーサルモデルや感情スペシャリストモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-23T07:46:55Z) - Face Emotion Recognization Using Dataset Augmentation Based on Neural
Network [0.0]
表情は、人の感情や感情の最も外部的な表現の1つである。
対人関係の調整に重要な役割を果たしている。
感情分析の分野の一分野として、表情認識は幅広い応用可能性を提供する。
論文 参考訳(メタデータ) (2022-10-23T10:21:45Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Emotion Recognition under Consideration of the Emotion Component Process
Model [9.595357496779394]
我々はScherer (2005) による感情成分プロセスモデル (CPM) を用いて感情コミュニケーションを説明する。
CPMは、感情は、出来事、すなわち主観的感情、認知的評価、表現、生理的身体反応、動機的行動傾向に対する様々なサブコンポーネントの協調過程であると述べている。
Twitter上での感情は、主に出来事の説明や主観的な感情の報告によって表現されているのに対し、文献では、著者はキャラクターが何をしているかを記述し、解釈を読者に任せることを好む。
論文 参考訳(メタデータ) (2021-07-27T15:53:25Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z) - Impact of multiple modalities on emotion recognition: investigation into
3d facial landmarks, action units, and physiological data [4.617405932149653]
感情認識における3次元顔データ,行動単位,生理的データの解析を行った。
分析の結果,3次元顔のランドマークと生理的データの両方が表情・感情認識に有効であることが示唆された。
一方、アクションユニットは、他のモダリティと融合した場合、感情認識に肯定的な影響を与える可能性があるが、この結果から、それらを用いて感情を検出することは困難であることが示唆された。
論文 参考訳(メタデータ) (2020-05-17T18:59:57Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。