論文の概要: A Spontaneous Driver Emotion Facial Expression (DEFE) Dataset for
Intelligent Vehicles
- arxiv url: http://arxiv.org/abs/2005.08626v1
- Date: Sun, 26 Apr 2020 07:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 13:45:54.235696
- Title: A Spontaneous Driver Emotion Facial Expression (DEFE) Dataset for
Intelligent Vehicles
- Title(参考訳): インテリジェント車両のための自発的ドライバ感情表情(defe)データセット
- Authors: Wenbo Li, Yaodong Cui, Yintao Ma, Xingxin Chen, Guofa Li, Gang Guo and
Dongpu Cao
- Abstract要約: 本稿では,運転者の自発的感情分析のための新たなデータセットであるドライバ感情表情(DEFE)データセットを提案する。
データセットには、運転中の60人の参加者による表情記録が含まれている。
私たちの知る限りでは、これは現在、唯一の公開ドライバーの表情データセットである。
- 参考スコア(独自算出の注目度): 13.877751298110148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a new dataset, the driver emotion facial
expression (DEFE) dataset, for driver spontaneous emotions analysis. The
dataset includes facial expression recordings from 60 participants during
driving. After watching a selected video-audio clip to elicit a specific
emotion, each participant completed the driving tasks in the same driving
scenario and rated their emotional responses during the driving processes from
the aspects of dimensional emotion and discrete emotion. We also conducted
classification experiments to recognize the scales of arousal, valence,
dominance, as well as the emotion category and intensity to establish baseline
results for the proposed dataset. Besides, this paper compared and discussed
the differences in facial expressions between driving and non-driving
scenarios. The results show that there were significant differences in AUs
(Action Units) presence of facial expressions between driving and non-driving
scenarios, indicating that human emotional expressions in driving scenarios
were different from other life scenarios. Therefore, publishing a human emotion
dataset specifically for the driver is necessary for traffic safety
improvement. The proposed dataset will be publicly available so that
researchers worldwide can use it to develop and examine their driver emotion
analysis methods. To the best of our knowledge, this is currently the only
public driver facial expression dataset.
- Abstract(参考訳): 本稿では,運転者の自発的感情分析のための新たなデータセットであるドライバ感情表情(DEFE)データセットを提案する。
データセットは、運転中の60名の参加者による表情記録を含む。
特定の感情を引き出すために選択されたビデオオーディオクリップを見た後、各参加者は同じ運転シナリオで運転タスクを完了し、次元的な感情と離散的な感情の側面から、運転中の感情反応を評価した。
また, 覚醒度, ヴァレンス, 支配性, 感情のカテゴリー, 強度の尺度を識別するために分類実験を行い, 提案するデータセットのベースとなる結果を得た。
さらに,運転シナリオと非運転シナリオの表情の違いについて比較検討した。
その結果,運転シナリオと非運転シナリオではaus(action unit)の表情が有意な違いを示し,運転シナリオにおける人間の感情表現は他の生活シナリオとは異なることが示された。
したがって、交通安全を改善するためには、運転者専用の人間感情データセットを公開する必要がある。
提案されたデータセットは公開され、世界中の研究者がドライバ感情分析手法の開発と検証に利用できるようになる。
私たちの知る限りでは、これは現在唯一の公開ドライバーの表情データセットである。
関連論文リスト
- Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - Face Emotion Recognization Using Dataset Augmentation Based on Neural
Network [0.0]
表情は、人の感情や感情の最も外部的な表現の1つである。
対人関係の調整に重要な役割を果たしている。
感情分析の分野の一分野として、表情認識は幅広い応用可能性を提供する。
論文 参考訳(メタデータ) (2022-10-23T10:21:45Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - A cross-corpus study on speech emotion recognition [29.582678406878568]
本研究では,行動感情から学習した情報が,自然感情の検出に有用かどうかを検討する。
成人英語の4つのデータセットは、行動的、誘惑的、自然な感情をカバーしている。
性能劣化を正確に調査するための最先端モデルを提案する。
論文 参考訳(メタデータ) (2022-07-05T15:15:22Z) - Audiovisual Affect Assessment and Autonomous Automobiles: Applications [0.0]
このコントリビューションは、課題を予測し、ロードコンテキスト上のマルチモーダルな"オーディオプラスx"におけるモデリングに影響を与える潜在的な方法を提供することを目的としています。
技術的には、乗用車内の個人を全面的にモデル化し、信頼性の高いダイアリゼーションを行う。
結論として、自動感情分析は、最初に選択されたユースケースにおける自動運転車の適用可能性の点まで成熟した。
論文 参考訳(メタデータ) (2022-03-14T20:39:02Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Context Based Emotion Recognition using EMOTIC Dataset [22.631542327834595]
EMOTIC(エモティック)は, 感情に注意を喚起された人々のイメージのデータセットである。
EMOTICデータセットを使用して、感情認識のためのさまざまなCNNモデルをトレーニングする。
その結果,情緒状態を自動的に認識するためにシーンコンテキストが重要な情報を提供することを示す。
論文 参考訳(メタデータ) (2020-03-30T12:38:50Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。